Автор: Odifreddi P.  

Теги: matematica  

ISBN: 8806151533

Год: 2000

Текст
                    

Indice p. vn Prefazione di Gian Carlo Rota La matematica del Novecento 3 9 11 15 18 22 26 30 34 37 40 44 47 51 56 59 63 66 71 77 82 87 Introduzione i. Fondamenti 1. Anni '20: gli insiemi 2. Anni ’40: le strutture 3. Anni '60: le categorie 4. Anni '80: il Lambda Calcolo il. Matematica pura 1. Analisi: la misura di Lebesgue (1902) 2. Algebra: la classificazione dei campi di Steinitz (1910) 3. Topologia: il teorema del punto fisso di Brouwer (1910) 4. Teoria dei numeri: i numeri trascendenti di Gelfond (1929) 5. Logica: il teorema di incompletezza di Godei (1931) 6. Calcolo variazionale: le superfici minimali di Douglas (1931) 7. Analisi: le distribuzioni di Schwartz (1945) 8. Topologia differenziale: le strutture esotiche di Milnor ( 1956) 9. Teoria dei modelli: i numeri iperreali di Robinson (1961) 10. Teoria degli insiemi: il teorema di indipendenza di Cohen (1963) 11. Teoria delle singolarità: la classificazione delle catastrofi di Thom (1964) 12. Algebra: la classificazione dei gruppi finiti di Gorenstein (1972) 13. Topologia: la classificazione delle superfici tridimensionali di Thurston (1982) 14. Teoria dei numeri: la dimostrazione di Wiles dell’ultimo teo- rema di Fermar (1995) 15. Geometria discreta: la soluzione di Hales del problema di Ke- plero (1998)
VI INDICE p. 92 98 105 108 112 116 120 122 126 129 133 139 145 148 151 153 159 165 166 168 172 175 181 185 187 in. Matematica applicata 1. Cristallografia: i gruppi di simmetria di Bieberback (1910) 2. Calcolo tensoriale: la relatività generale di Einstein (1915) 3. Teoria dei giochi: il teorema minimax di Von Neumann (1928) 4. Analisi funzionale: l’assiomatizzazione della meccanica quan- tistica di Von Neumann (1932) 5. Teoria delle probabilità: l’assiomatizzazione di Kolmogorov (1933) 6. Teoria deH’ottimizzazione: il metodo del simplesso di Dant- zig (1947) 7. Teoria dell’equilibrio generale: il teorema di esistenza di Arrow e Debreu (1954) 8. Teoria dei linguaggi formali: la classificazione di Chomsky (1957) 9. Teoria dei sistemi dinamici: il teorema KAM (1962) 10. Teoria dei nodi: gli invarianti di Jones (1984) iv. Matematica al calcolatore 1. Teoria degli algoritmi: la caratterizzazione di Turing (1936) 2. Intelligenza Artificiale: l'analisi degli scacchi di Shannon (1950) 3. Teoria del caos: l’attrattore strano di Lorenz (1963 ) 4. Dimostrazioni assistite: il teorema dei quattro colori di Ap- pel e Haken (1976) 5. Frattali: l'insieme di Mandelbrot (1980) v. Problemi insoluti 1. Aritmetica: il problema dei numeri perfetti (300 a.C.) 2. Analisi complessa: l'ipotesi di Riemann ( 1859) 3. Topologia algebrica: la congettura di Poincaré (1904) 4. Teoria della complessità: il problema P = NP (1972) Conclusione bibliografia Indice dei nomi
Prefazione Allo scadere del secondo millennio, la matematica cor- re seri pericoli di vita. Fra le molte minacce alla sua so- pravvivenza, le piu incombenti mi sembrano la crassa ignoranza dei suoi risultati, e la diffusa ostilità verso i suoi esponenti. Entrambe sono agevolate dalla riluttanza dei matematici a spingersi fuori dagli angusti confini della propria disciplina, e dalla loro inettitudine a tradurne il contenuto esoterico in slogan essoterici, com’è invece im- perativo nell’era dei mezzi di informazione di massa e del- . e pubbliche relazioni. Se non si prenderanno misure im- mediate e drastiche, la matematica rischia di divenire pre- sto una curiosità che porteremo i nostri figli a visitare allo zoo delle specie intellettuali in via d’estinzione, a fianco degli altri classici: dalla poesia alla musica, dalla pittura al teatro. E chiaro però, e potrei dimostrarlo rigorosamente, che la civiltà occidentale di cui siamo tanto fieri sopravvivrà o morirà insieme alla sua matematica. La matematica è, è sempre stata, e sempre sarà la vetta della nostra civiltà, e chiunque tenga agli ideali che ci sono stati trasmessi da- gli Ebrei e dai Greci, attraverso il Rinascimento e la Ri- voluzione Scientifica, dev’essere pronto ad arruolarsi in sua difesa. Il campo di battaglia è vasto, e il piano di guerra dev’essere concepito dai nostri migliori strateghi. Per for- tuna ce ne sono alcuni anche fra i matematici, nonostan- te lo snobistico disdegno con cui sono guardati dalla maggioranza dei loro colleghi (fisici e chimici, invece, hanno imparato molto tempo fa a comportarsi diversa-
Vili GIAN CARLO ROTA mente, e coccolano e ricompensano lautamente i loro strateghi). Coglierò questa opportunità, offertami dall’amico Odifreddi, per soffermarmi su una piccola zona di que- sto campo di battaglia. Purtroppo non sono in grado di offrire suggerimenti costruttivi, ma posso almeno addi- tare alcuni grotteschi fraintendimenti, che portano i se- dicenti difensori della matematica a inciamparsi nei pro- pri piedi. Il mio consiglio è di evitare accuratamente la ri- petizione delle seguenti gaffe. - La matematica è divertente. La matematica è divertente da imparare per coloro che la amano, cioè per una trascurabile minoranza delle persone istruite. Per la stragrande maggioranza, inve- ce, imparare la matematica è un’attività faticosa, diffi- cile e artificiale, che quasi tutti preferirebbero evitare. Non si aiuta certo la propria causa coniando uno slo- gan basato su una cosi spudorata menzogna. - La matematica è meravigliosa. Anche qui, la bellezza della matematica risplende so- lo agli occhi di chi la fa. Purtroppo, l’insegnamento della matematica è ormai caduto a livelli di incompe- tenza francamente impensabili per un mondo tecno- logico. Pochissimi insegnanti sanno comunicare la bel- lezza della matematica ai loro studenti, e molti di quel- li che potrebbero preferiscono, comprensibilmente, dedicarsi ad attività meno frustranti dell’insegnamen- to. Meglio lasciar cadere anche questo slogan. - La matematica ha molte applicazioni. Benché possa sembrare sciocco, i matematici spesso concludono la discussione di questo o quel risultato con la frase: « e il teorema ha molte utili applicazioni»,
PREFAZIONE IX senza però mai specificare quali. Volerlo specificare, comunque, sarebbe ancora peggio. Sforzarsi di trova- re applicazioni a tutti i costi conduce infatti all’inven- zione di esempi innaturali e poco convincenti, che ben si meritano la scoraggiante ritorsione: «e allora?» Certo, alcuni risultati matematici hanno applicazioni immediate, ma anche in questi casi è meglio tenersi alla larga dallo specifico, come il Segretario Fiorenti- no raccomandava al Principe. Non si può mai sapere se e quanto interesse il pubblico mostrerà verso le se- dicenti meraviglie tecnologiche che gli vengono pro- pinate. E meglio limitarsi a generalità lapalissiane, che sono più adatte a impressionare gli sprovveduti. Per esem- pio: «senza la logica matematica non ci sarebbero i computer», o «senza l’analisi funzionale non ci sareb- be la bomba atomica». Se solo trovassimo una dozzi- na di slogan del genere con cui tappare la bocca a cer- ta gente, la matematica potrebbe emulare la chimica nelle pubbliche relazioni, e rivaleggiare con essa nei fi- nanziamenti. - La matematica è un sostituto dei classici. Io appartengo all’ultima generazione a cui si è fatto credere che saper leggere latino e greco fosse un pre- requisito necessario a chiunque ambisse alla qualifica di gentleman. Vi risparmierò le decrepite banalità che venivano avanzate come giustificazione per l’insegna- mento delle lingue morte. Quelle stesse banalità oggi vengono riciclate per richiedere più ore settimanali di matematica nelle scuole superiori: progetto certamen- te encomiabile, ma difficilmente realizzabile median- te un appello ai classici. Devo confessare di aver io stesso creduto all'analogia fra matematica e classici, e di averla predicata ai miei studenti. Finché un giorno uno di essi mi ha irriveren-
X GIAN CARLO ROTA temente sbattuto in faccia un «al diavolo i classici! » che mi ha istantaneamente rinsavito. C’è comunque, ovviamente, un pizzico di verità nel pa- ragone, ed è bene isolarlo dalle ciance. Nella vecchia Inghilterra, nessun bravo studente di Oxford o Cam- bridge poteva aspirare a servire Sua Maestà, fosse pu- re nella più sperduta delle colonie, se non era in grado di recitare su due piedi migliaia di versi di Virgilio, o decine di odi di Pindaro: i paesi civili si piccavano di scegliere i funzionari governativi unicamente in base alla conoscenza dei classici! Qualcosa di simile sta accadendo oggi con la matema- tica. Chiunque lavori in aree tecnologiche sa che le spe- cializzazioni invecchiano precocemente e ripetuta- mente. Un solido background di purissima matemati- ca è la migliore assicurazione contro l’obsolescenza. Neppure la matematica «applicata» basta allo scopo, per ovvie ragioni di circolarità. - La matematica è come la musica. Questa mi piacerebbe crederla. Bisogna però consta- tare che ci sono molti più studenti di musica che di ma- tematica, benché la probabilità di fare la fame o di es- sere disoccupati sia molto più alta fra i musicisti che fra i matematici. Dunque, le due professioni devono essere piuttosto differenti fra loro. - La matematica è una professione tranquilla. Troppi non addetti ai lavori hanno ancora un’immagi- ne fraudolenta della vita del matematico, in base alla quale il professore di matematica insegnerebbe qual- che ora alla settimana, e si dedicherebbe nel resto del tempo a piacevoli passatempi, dal giardinaggio agli scacchi. Niente potrebbe essere più lontano dalla realtà, e lo
PREFAZIONE XI sarà ancor meno nell’avvenire. La competitività nella ricerca matematica sta arrivando a livelli da Olimpia- di, e chi si applichi per meno di diciotto ore al giorno alla ricerca finirà in pizzeria: ma dietro il bancone, non seduto ai tavoli ! - La matematica è la regina delle scienze. Di questo, invece, sono pienamente convinto. Sfortu- natamente, i matrimoni si fanno in due: lo slogan sa- rebbe credibile solo se anche gli altri scienziati fosse- ro d’accordo, cosa che non passa loro neppure per la testa. Anzi, tutti cercano di accaparrarsi gli insegna- menti di matematica, dagli ingegneri ai fisici, dai chi- mici ai biologi, e i matematici rimangono a spasso. Quando riconquisteremo un po’ di rispetto, per non parlare di qualche posto di lavoro? Per fortuna ogni tanto qualcosa di buono succede, contro ogni pessimistico pronostico. Una di queste cose è questo libro di Odifreddi. La sua strategia è intelligen- te: egli presenta semplicemente i risultati della matema- tica come sono, limitando al minimo il linguaggio tecni- co, ma con sufficiente informazione da permettere al let- tore di farsi una buona idea sia dei problemi importanti, che delle loro soluzioni. Raramente un resoconto cosi completo è stato presentato con una tale chiarezza. Qui non ci si sforza di «vendere» la matematica. Che un risultato sia utile o no, incessu patet\ il lettore si ritro- verà a concludere esultante, alla fine di qualche splendi- da spiegazione sulle superfici minime o sui polinomi di Jones, che tali risultati dovranno, prima o poi, trovare uti- li applicazioni, comunque vada. Condotto dall’abile retorica dell’autore, il lettore por- tato a questa conclusione ausculterà il battito cardiaco della matematica, e ne imparerà la lezione essenziale: che i migliori risultati sono sempre, inevitabilmente, quelli che trovano applicazioni rivoluzionarie. Ed è proprio a
XII PREFAZIONE queste che si devono il progresso, o meglio il Progresso, e il miglioramento del nostro mondo. Chiunque abbia a cuore la matematica deve essere gra- to a Odifreddi per averne presentato, con successo, il la- to vincente. GIAN CARLO ROTA Torino, / giugno 1998. [Traduzione di Piergiorgio Odifreddi].
LA MATEMATICA DEL NOVECENTO A Laura che mi libera dal Tempo e dallo Spazio e mi dona la gioia e la pace negatemi dal Numero e dal Punto
Ringrazio John Hubbard e Peter Kahn per l’ispirazione iniziale, e Claudio Barrocci, Cinzia Bonotto, Umberto Bottazzini, Lionello Cantoni, Alberto Col- lino, Vittorio De Alfaro, Simonetta Di Sieno, Michele Emmer, Livia Giacardi, Gabriele Lolli, Cristina Mataloni, Andrea Moro, Alessandro Panconesi, Tul- lio Regge e Paolo Valabrega per l’aiuto intermedio e le correzioni finali.
Introduzione Il mondo descritto dalle scienze fìsiche e naturali è concreto e percepibile: in prima approssimazione con i sensi, e in seconda approssimazione attraverso varie loro estensioni fornite dalla tecnologia. Il mondo descritto dalla matematica è invece un mondo astratto, costituito di idee percepibili soltanto con l’occhio della mente. Con la pratica, concetti astratti quali numeri e punti hanno ac- quistato comunque un’oggettività tale da permettere an- che all’uomo comune di farsene immagini sostanzial- mente concrete, proprio come se esse appartenessero a un mondo di oggetti tanto reali quanto quelli fisici. La scienza moderna ha però minato l’ingenua visione del mondo esterno: la ricerca ha esteso i suoi confini alle enormi grandezze del cosmo e a quelle minime delle par- ticelle, rendendo impossibile una percezione sensoriale diretta, o anche solo tecnologicamente mediata, degli og- getti galattici o atomici, e riducendoli effettivamente a im- magini matematiche. Analogamente, anche la matemati- ca moderna ha esteso i confini della sua ricerca alle rare- fatte astrazioni delle strutture e alle minuziose analisi dei fondamenti, svincolandosi completamente dalla visua- lizzazione. Scienza e matematica del secolo xx sono dunque ac- comunate dalla difficoltà di spiegare le loro conquiste in termini di concetti classici. Ma difficoltà non significa im- possibilità: e sono spesso proprio le astrazioni superficiali e sterili a essere difficili da giustificare, mentre quelle profonde e feconde affondano le loro radici in problemi e intuizioni concrete. In altre parole, la buona astrazione
4 INTRODUZIONE non è mai fine a se stessa, un’arte per l’arte, ed è invece sempre una necessità, un’arte per l’uomo. Una seconda difficoltà nell’affrontare scienza e mate- matica del secolo xx è l’esplosione produttiva. I mate- matici, una volta sparuto gruppetto che doveva spesso guadagnarsi da vivere facendo altri lavori, sono oggi di- venuti legione. Essi si mantengono producendo ricerche che spesso non hanno né giustificazione né interesse, e la struttura universitaria in cui la maggioranza di essi lavo- ra li incita scioccamente a «pubblicare o perire», secon- do un triste motto statunitense. Il risultato è che sono og- gi in circolazione centinaia di riviste specializzate, su cui appaiono ogni anno, letteralmente, centinaia di migliaia di teoremi, la maggior parte irrilevanti. Una terza difficoltà è causata dalla frammentazione che la matematica ha subito a partire dal Settecento, e che è divenuta patologica nel Novecento. L’esplosione pro- duttiva ne è una delle cause, ma non certamente la sola: un’altra, forse più determinante, è il progresso stesso del- la ricerca. I problemi semplici e di facile soluzione sono infatti pochi, e una volta che essi sono stati risolti, una di- sciplina si può sviluppare soltanto affrontando problemi complicati e difficili, che richiedono lo sviluppo di tec- niche specifiche, e dunque una specializzazione. E il No- vecento ha appunto testimoniato una iperspecializzazio- ne della matematica, che ha finito col suddividerla in sot- todiscipline dai confini sempre più angusti e delimitati. La maggior parte di queste sottodiscipline è costituita da ramoscelli atrofici e rinsecchiti, che si sviluppano li- mitatamente nel tempo e nello spazio, e muoiono poi di morte naturale. Ma i rami sani e rigogliosi sono pur sem- pre molti, e il loro sviluppo ha provocato una situazione inedita nella storia della matematica: l’estinzione della specie del matematico universale, cioè di quell’individuo di eccezionale cultura che poteva dominare compieta- mente l’intero panorama della matematica del suo tem- do. Il suo ultimo esemplare sembra essere stato John von Neumann, morto nel 1957.
INTRODUZIONE 5 Per tutti questi motivi, non è dunque né fisicamente possibile, né intellettualmente auspicabile fornire un pa- norama completo dell’attività di una disciplina che ha chiaramente mutuato i caratteri tipici della società indu- striale dominante, in cui la superproduzione di merci di bassa fattura e a basso costo procede spesso per inerzia, secondo meccanismi inquinanti e saturanti, deleteri per l’ambiente e per il consumatore. Il problema principale di una qualunque esposizione della matematica del secolo xx è allora, come nella para- bola evangelica, di separare il grano dal loglio, brucian- do il secondo in fasci, e ammassando il primo nei granai. I criteri che possono informare una scelta di risultati so- no molteplici, e non univoci: l’interesse storico del pro- blema, la natura germinale o conclusiva di un risultato, la bellezza intrinseca della formulazione o delle tecniche, la novità o la difficoltà della dimostrazione, la fertilità ma- tematica o l’utilità pratica delle applicazioni, la pregnan- za filosofica delle conseguenze... La scelta che proponiamo al lettore non può natural- mente che essere soggettiva, in senso sia negativo che po- sitivo. Da un lato, essa deve avvenire all’interno di un ba- gaglio personale di conoscenze che è, per forza di cose, ovviamente ristretto da un punto di vista generale. Dal- l’altro, essa compie all’interno di questo bagaglio una se- lezione inevitabilmente dettata da preferenze e gusti par- ticolari. Gli aspetti soggettivi possono comunque essere limi- tati al minimo, cercando di riferirsi a criteri che siano, in qualche maniera, «oggettivi». Nel caso presente, il com- pito è facilitato da due fattori complementari, che hanno segnato lo sviluppo della matematica nel secolo. En- trambi sono collegati, nei modi che diremo, ai Congres- si Internazionali della Matematica: come per le Olimpia- di, questi si tengono a scadenza quadriennale, e vengono invitati a presentarvi il proprio lavoro coloro che la co- munità dei matematici ritiene essere i suoi migliori espo- nenti.
INTRODUZIONE 6 Il primo congresso ufficiale si tenne nel 1897 a Zuri- go, e la prolusione d’inizio fu affidata a Henri Poincaré, che la dedicò alle relazioni fra matematica e fisica. Il se- condo congresso si tenne a Parigi nel 1900, e la prolu- sione fu questa volta affidata a David Hilbert. Il fattore numerologico prese il sopravvento sulla sua volontà di ri- spondere a distanza al discorso di Poincaré, e Hilbert scelse invece di «indicare probabili direzioni della mate- matica nel nuovo secolo». Nel suo ispirato discorso egli diede anzitutto implici- te indicazioni, che ci guideranno nella nostra scelta: i ri- sultati importanti sono quelli che manifestano una con- tinuità storica con il passato, che unificano aspetti diver- si della matematica, che gettano una nuova luce su cose già note, che introducono semplificazioni radicali, che non sono artificiosamente complicati, che ammettono esemplificazioni significative, che sono maturi a suffi- cienza da poter essere spiegati all’uomo della strada... Ma il discorso di Hilbert divenne soprattutto famoso per l’esplicita indicazione di 23 problemi aperti, che egli considerava cruciali per lo sviluppo della matematica del secolo. A conferma della sua lucida preveggenza, molti di essi risultarono effettivamente fecondi e stimolanti, so- prattutto nella prima metà del secolo, e su alcuni di essi ci soffermeremo in seguito. Nella seconda metà del se- colo l’impulso dei problemi di Hilbert si smorzò, e la ma- tematica imboccò spesso strade che agli inizi del secolo neppure esistevano. Per orizzontarsi in questo periodo è utile rivolgersi a un premio istituito nel 1936, e assegnato in occasione dei Congressi Internazionali a matematici sotto i 40 anni, che abbiano ottenuto negli ultimi anni i risultati più rilevan- ti. La restrizione anagrafica non è particolarmente im- portante, visto che una buona parte dei risultati signifi- cativi sono effettivamente ottenuti entro quell’età. Come disse una volta Godfrey Hardy, in Apologia di un mate- matico-. «nessun matematico può permettersi di dimen- ticare che la matematica, più di qualsiasi altra arte o scien- za, è un’attività per giovani».
INTRODUZIONE 7 Il premio fu dedicato alla memoria di John Charles Fields, un matematico che l’aveva organizzato, e che ne. aveva ottenuto il finanziamento. Esso consiste di una me- daglia che reca l’effige di Archimede, e la scritta Transi- re suum pectus mundoque potiri, «trascendere le limita- zioni umane e padroneggiare l’universo» (figura 1). Per questi motivi il premio si chiama oggi medaglia Fields. Esso è considerato l’analogo del premio Nobel per la matematica, che non esiste. Esiste invece una leggenda ben diffusa, secondo la quale la causa di questa mancan- za sarebbe stata la volontà, da parte di Alfred Nobel, di evitare la possibilità che il matematico svedese Gòsta Mit- tag-Leffler lo vincesse. In realtà, i due non si conosceva- no quasi, e certamente il secondo non era l’amante della moglie del primo, come spesso si aggiunge, visto che No- bel non era sposato. Il vero motivo è semplicemente che i cinque premi originali (fisica, chimica, medicina, lette- ratura e pace) erano dedicati ad argomenti che avevano interessato Nobel per tutta la vita, e la matematica non era fra questi. Finora sono state assegnate 42 medaglie Fields, di cui due nel 1936, e le rimanenti fra il 1950 e il 1998. Poiché la lista dei vincitori comprende alcuni fra i migliori ma- Figura 1. La medaglia Fields.
8 INTRODUZIONE tematici della seconda metà del secolo, e i risultati per i quali le medaglie sono state attribuite costituiscono al- cune delle vette raggiunte dalla matematica in quel pe- riodo, ritorneremo spesso sull’argomento. Complementare alla medaglia Fields è il premio Wolf, una specie di Oscar alla carriera istituito nel 1978 da Ri- cardo Wolf, un filantropo cubano di origine tedesca che fu ambasciatore in Israele dal 1961 al 1973. Analoga- mente ai premi Nobel, i premi Wolf non hanno limita- zioni d’età, sono assegnati in vari campi (fisica, chimica, medicina, agricoltura, matematica e arte), vengono con- segnati dal capo di stato nella capitale (il re di Svezia a Stoccolma in un caso, il presidente israeliano a Gerusa- lemme nell’altro) e comportano un sostanzioso assegno (di 100 000 dollari, contro i 10 000 della medaglia Fields e il milione del premio Nobel). Per evitare fraintendimenti, è bene comunque affer- mare esplicitamente che le soluzioni dei problemi di Hil- bert e i risultati delle medaglie Fields o dei premi Wolf costituiscono soltanto significativi punti di riferimento, e non esauriscono ovviamente il panorama della mate- matica del secolo xx. Per questo motivo, sarà anche ne- cessario spaziare al di fuori di essi, per cercare di dare un resoconto quanto più ampio possibile, nei limiti già an- nunciati, della varietà e della profondità della matemati- ca contemporanea. La decisione di concentrarsi su grandi risultati, che co- stituiscono d’altronde l’essenza della matematica, deter- mina automaticamente la natura diacronica dell’esposi- zione, che prenderà inevitabilmente la forma del collage. Essa presenta il vantaggio di permettere una lettura lar- gamente indipendente delle varie sezioni, e lo svantaggio di risultare disorganica: svantaggio che potrà però esse- re facilmente rimosso da una seconda lettura, dopo la quale si potrà ritornare sulle varie sezioni con una visio- ne d’insieme.
Capitolo primo Fondamenti La matematica può venir considerata, a seconda della propria predisposizione filosofica e della propria espe- rienza personale, un’attività di scoperta o di invenzione. Nel primo caso i concetti astratti di cui essa tratta si pensano dotati di una vera e propria esistenza nel mon- do delle idee, che viene considerato tanto reale quanto il mondo fisico degli oggetti concreti. La scoperta richiede dunque un letterale sesto senso, che permetta di perce- pire gli oggetti astratti nella stessa maniera in cui i cinque sensi permettono di percepire gli oggetti concreti. E il problema fondamentale di questa percezione è ovvia- mente la sua verità esterna, cioè una sua adeguata corri- spondenza con la supposta realtà. Nel secondo caso le opere matematiche vengono in- vece considerate alla stregua di opere artistiche, che trat- tano di oggetti tanto immaginari quanto i protagonisti di un romanzo, o le raffigurazioni di una pittura. L’inven- zione richiede dunque un letterale talento matematico, che permetta di costruire oggetti di fantasia nella stessa maniera del talento artistico. E il problema fondamenta- le delle produzioni di questo talento è la loro consistenza interna, cioè il poter concepire le varie parti come un tut- to organico (in termini matematici: la mancanza di con- traddizioni) . Scoperta o invenzione che sia, la matematica porta comunque alla luce oggetti e concetti che, al loro primo apparire, sono inusuali e non familiari. E ancora oggi al- cuni aggettivi rivelano le reazioni di sorpresa o disagio che hanno accolto certi numeri al loro primo apparire: ir-
IO CAPITOLO PRIMO razionali, negativi, sordi, immaginari, complessi, tra- scendenti, ideali, surreali... Un atteggiamento tipico, fin dai tempi dei Greci, è sta- to il tentativo di limitare sorpresa e disagio il più possi- bile, scaricando il peso dell’edificio della matematica su solide fondamenta. E la storia della matematica ha testi- moniato fasi successive di costruzione e decostruzione, che invertivano i rapporti reciproci fra ciò che veniva con- siderato fondamentale, e sostituivano fondazioni perico- lanti o sorpassate con altre considerate più adeguate. Nel secolo vi a. C. i Pitagorici posero a fondamento della matematica Y aritmetica dei numeri interi e raziona- li. La crepa che fece crollare l’edificio fu la scoperta di grandezze geometriche che non si possono esprimere co- me rapporti tra numeri interi, il che mostrò l’inadegua- tezza dei numeri razionali come fondamento della geo- metria. Nel secolo ni a. C. l’intero edificio fu ricostruito da Eu- clide sulle fondamenta della geometria. I numeri interi e le loro operazioni persero il ruolo di entità primitive, e furono ridotti alle misure di segmenti e delle loro com- binazioni: per esempio, i prodotti alla misura dell’area di un rettangolo. Nel secolo xvn Descartes inaugurò un nuovo para- digma numerico, basato questa volta su ciò che oggi chia- miamo analisi, cioè sui numeri reali. La geometria di- venne appunto analitica, e punti ed entità geometriche vennero ridotti a coordinate ed equazioni: per esempio, le rette alle equazioni di primo grado. Nel secolo xix il cerchio si chiuse, e l’analisi fu ridot- ta a sua volta YYY aritmetica. I numeri reali furono defini- ti come insiemi di loro approssimazioni razionali, e la no- vità essenziale che permise ai moderni questo passo fu la considerazione dell’infinito attuale, che i Greci invece ri- fiutavano. Su tutte queste fondazioni classiche ritorneremo in se- guito. Ma il processo di costruzione e decostruzione non si fermò qui: anzi, proprio il secolo xx ha visto un fiorire
FONDAMENTI 11 eli alternative che si sono contese i favori dei matematici, e che permettono di caratterizzarlo come un vero e pro- prio periodo di rifondazione. La caratteristica essenziale delle nuove fondazioni è che esse si basano non piu sugli oggetti classici della matematica, cioè enti numerici o geo- metrici, ma su concetti completamente nuovi, che ne han- no completamente mutato l’identità, sia formale che so- stanziale. 1. Anni ’20: gli insiemi. Nel parlare della fondazione aritmetica dei numeri reali, abbiamo già introdotto la parola chiave della ma- tematica del secolo xx: gli insiemi. Che su di essi si po- tesse fondare l’intero edificio fu la grande scoperta di Georg Cantor, a cui egli arrivò con motivazioni pura- mente matematiche, legate a uno studio di problemi del- l’analisi classica. Con motivazioni diverse, legate cioè al tentativo di mo- strare come i concetti e gli oggetti matematici fossero, nel- la loro essenza più profonda, di natura puramente logi- ca, anche Gottlob Frege aveva sviluppato un suo ap- proccio equivalente a quello di Cantor, e che oggi va sotto il nome di teoria ingenua degli insiemi. Essa si fonda su due soli principi, che riducono gli in- siemi alle proprietà che li definiscono. Anzitutto, il prin- cipio di estensionalità, già enunciato da Gottfried Wilhelm Leibniz: un insieme è completamente determinato dai suoi elementi, e due insiemi con gli stessi elementi sono dunque uguali. Inoltre, il principio di comprensione', ogni proprietà determina un insieme, costituito dagli oggetti che soddisfano la proprietà; e ogni insieme è determina- to da una proprietà, che è appunto quella di essere un og- getto appartenente all’insieme. La scoperta che su due principi cosi semplici e logica- mente elementari si potesse fondare l’intera matematica, fu considerata il punto d’arrivo della sua storia: la geo-
12 CAPITOLO PRIMO metria era stata ridotta all’analisi, l’analisi all’aritmetica, e ora il lavoro di Cantor e Frege mostrava che l’aritmeti- ca era a sua volta riducibile alla teoria degli insiemi, cioè alla pura logica. La cosa era però troppo bella per essere vera, e una delle prime scoperte del secolo xx fu appunto che que- sta semplice fondazione era inconsistente: da cui la qua- lifica di «ingenua». Nel 1902 Bertrand Russell mostrò infatti che il principio di comprensione era contraddit- torio, con un ragionamento che divenne noto come para- dosso di Russell. In sostanza, si dividono gli insiemi di oggetti in due classi, a seconda che essi siano o no uno degli oggetti con- tenuti nell’insieme stesso: detto altrimenti, a seconda che essi appartengano o no a se stessi. Per esempio, l’insieme degli insiemi con più di un elemento appartiene a se stes- so, perché ha certo più di un elemento. E l’insieme degli insiemi con un solo elemento non appartiene a se stesso, perché anch’esso ha certo più di un elemento. Il problema è: l’insieme di tutti gli insiemi che non ap- partengono a se stessi, appartiene o no a se stesso? Se si, allora è uno degli insiemi che non appartengono a se stes- si, e quindi non può appartenere alla loro collezione, cioè a se stesso. Se no, allora è uno degli insiemi che non ap- partengono a se stessi, e dunque appartiene alla loro col- azione, cioè a se stesso. La soluzione, o meglio, la rimozione del paradosso di Russell passa oggi attraverso una limitazione del princi- pio di comprensione, e una distinzione fra classe e insie- me. Un insieme è semplicemente una classe appartenen- te ad altre classi: tutti gli insiemi sono dunque classi, ma non tutte le classi sono insiemi, e quelle che non lo sono si chiamano classi proprie. Se si prova a riprodurre l’argomento di Russell consi- derando la classe degli insiemi che non appartengono a se stessi, si ha una sorpresa. Infatti questa classe non può appartenere a se stessa, altrimenti sarebbe un insieme che non appartiene a se stesso. Allora non appartiene a se
FONDAMENTI 13 stessa, e dunque o non è un insieme, o appartiene a se stessa: poiché la seconda alternativa è stata appena esclu- sa, dev’essere vera la prima. In altre parole, si è trovato non piu un paradosso, ma una dimostrazione del fatto che la classe degli insiemi che non appartengono a se stes- si è propria. Naturalmente, la classe delle classi che non apparten- gono a se stesse è contraddittoria, esattamente come pri- ma. Il principio di comprensione va dunque riformula- to, dicendo che una proprietà di insiemi determina sem- pre una classe. Ma in questa forma esso perde molto della sua forza, perché permette allora soltanto di definire clas- si a partire da insiemi, i quali devono già essere stati de- finiti in qualche modo. E non ci sono soluzioni indolori o eleganti al proble- ma, visto che quella naturale fornita dell’assioma di com- prensione è inagibile. Si tratta allora di abbandonare l’ap- proccio analitico o dall’alto, e di adottare un approccio sintetico o dal basso, elencando una serie di principi di esistenza e di regole di costruzione degli insiemi, che per- mettano pragmaticamente di generare l’utile, cioè tutti gli insiemi di uso corrente, ma allo stesso tempo di evita- re il dannoso, cioè tutti gli insiemi paradossali. Una prima lista di assiomi fu compilata da Ernst Zer- melo nel 1908. Essa richiede anzitutto l’esistenza di al- meno un insieme, cosa che non si può dimostrare sulla sola base dell’assioma di comprensione per le classi. Avendo a disposizione un punto di partenza, si possono poi costruire altri insiemi mediante svariate operazioni, di cui gli assiomi garantiscono appunto la fattibilità. Que- ste operazioni costituiscono l’analogo insiemistico delle operazioni aritmetiche: per esempio, l’unione, il prodot- to cartesiano e l’insieme potenza per gli insiemi sono ver- sioni della somma, del prodotto e dell’elevamento a po- tenza per i numeri. Tutte queste operazioni non permettono però di di- mostrare l’esistenza di insiemi infiniti, che sono invece necessari per ridurre l’analisi all’aritmetica, cioè i nume-
14 CAPITOLO PRIMO ri reali a insiemi (appunto, infiniti) di numeri interi. Un ulteriore assioma richiede dunque l’esistenza di un insie- me infinito, per esempio uno i cui elementi soddisfano tutti i rimanenti assiomi della teoria di Zermelo, e che contiene dunque in particolare tutte le potenze successi- ve di un insieme finito. La lista di Zermelo fu aggiornata nel 1921 da Abraham Fraenkel, con l’aggiunta di un assioma che asserisce che i valori di una funzione definita su un insieme costitui- scono ancora un insieme. Al sistema complessivo ci si ri- ferisce dunque come alla teoria ài Zermelo e Fraenkel. La teoria sembra sufficiente per gli usi comuni della ma- tematica, ma questo non significa che lo sarà sempre. Per esempio, negli anni '60 il lavoro di Alexandre Grothen- dieck, a cui accenneremo in seguito, richiese l’aggiunta di un ulteriore assioma: l’esistenza di un insieme inaccessibi- le, i cui elementi soddisfano tutti gli assiomi della teoria di Zermelo e Fraenkel, e che contiene dunque in particolare tutte le potenze successive di un insieme infinito. Più in generale, nella seconda metà del secolo si sono aggiunti assiomi di esistenza di insiemi sempre più gran- di, detti grandi cardinali, e la cosa interessante è che essi permettono di provare risultati riguardanti i numeri in- teri, che non si possono provare in loro assenza: in altre parole, come in fisica sembra esserci un legame fra la teo- ria cosmologica dell’universo in grande, e la teoria quan- tistica dell’universo in piccolo, cosi in matematica esiste un legame fra la teoria globale degli insiemi e la teoria lo- cale dei numeri. In base al teorema di incompletezza di Godei, su cui torneremo, è comunque impossibile formulare un siste- ma di assiomi definitivo per la teoria degli insiemi, o an- che solo per la teoria dei numeri. Qualunque estensione del sistema di Zermelo e Fraenkel è dunque destinata a essere provvisoria, e a essere soppiantata dalle ulteriori estensioni che verranno rese necessarie da una sempre migliore, ma mai conclusiva, comprensione della nozio- ne di insieme.
FONDAMENTI 15 2. Anni ’40: le strutture. La teoria degli insiemi fu il culmine ottocentesco del- la concezione riduzionista della matematica, che attra- verso l’analisi logica ridusse appunto la geometria all’a- nalisi, l’analisi all’aritmetica, e l’aritmetica alla logica. L’analisi logica della matematica soffre però delle stes- se limitazioni della critica letteraria, e cioè di interessa- re gli specialisti ma non gli autori e i lettori: in questo caso, i logici ma non i matematici. Agli occhi del matematico professionista, la teoria de- gli insiemi aveva (e ha) infatti due ovvi svantaggi. Anzi- tutto, come la teoria atomica non ha mutato la percezio- ne degli oggetti macroscopici nella vita quotidiana, cosi la riduzione degli oggetti matematici agli insiemi non ha influito sulla pratica: per esempio, per fare i conti non si pensa ai numeri interi come classi di insiemi equipotenti. Inoltre, se i paradossi hanno preoccupato i logici, essi hanno lasciato largamente indifferenti i matematici, che vedono in genere la (in)consistenza come un problema non della matematica stessa, ma delle sue presentazioni formali: nel caso specifico, della teoria degli insiemi e non della sua pratica. La teoria di Zermelo e Fraenkel è dun- que stata percepita come la complicata soluzione a un problema irrilevante. In conclusione, la teoria degli insiemi sembra aver for- nito al matematico professionista due soli contributi, en- trambi essenziali, ma indipendenti da particolari assio- matizzazioni. Da un lato, una teoria degli insiemi infini- ti: ossia, come disse David Hilbert, quel «paradiso creato da Cantor, da cui nessuno ci potrà scacciare». Dall’altro lato, un conveniente linguaggio per la formulazione dei concetti sempre più astratti prodotti dalla pratica mo- derna. Negli anni ’30 un gruppo di matematici francesi, noto sotto il nome collettivo di Nicolas Bourbaki, si propose allora di fondare la matematica in maniera più significa-
l6 CAPITOLO PRIMO tiva per i matematici, e trovò una soluzione in un’analisi non più logica, ma strutturale. Il gruppo si imbarcò nel progetto infinito, e dunque mai terminato, della scrittu- ra di un manuale che descrivesse lo stato dell’arte della matematica contemporanea: esso fu intitolato, con un ov- vio riferimento a Euclide, Elementi di matematica, e il pri- mo fascicolo usci nel 1939. Come appunto nell’opera euclidea, il manuale fu divi- so in libri, di cui i primi sei dedicati ai fondamenti. E già il loro elenco testimonia il ridimensionamento del ruolo fondazionale della teoria degli insiemi, di cui tratta sol- tanto il primo libro. Negli altri cinque si considerano in- vece l’algebra, la topologia, le funzioni di variabile reale, gli spazi vettoriali topologici e l’integrazione. Nel 1949 Bourbaki riassunse le sue posizioni filosofi- che, ormai divenute dominanti, in un articolo dal titolo eloquente: I fondamenti della matematica per il matema- tico (invece che per il logico). In esso fu enunciata l’a- stratta affermazione che l’intera matematica contempo- ranea si può costruire basandosi sulla nozione di struttu- ra, e il manuale in corso di scrittura fu presentato come la concreta dimostrazione della correttezza di questa af- fermazione. L’idea fondamentale del concetto di struttura si può spiegare con un esempio. Nella teoria degli insiemi, i nu- meri reali vengono artificialmente definiti come insiemi di numeri interi, e le operazioni e relazioni su di essi ven- gono artificialmente ridotte a operazioni e relazioni su in- siemi. Nell’approccio bourbakista, invece, i numeri rea- li e le loro operazioni e relazioni si prendono come dati, e si isolano in maniera astratta le loro proprietà. Da un primo punto di vista, si tratta di descrivere le proprietà delle operazioni di somma e prodotto. Per esempio: esistono due elementi neutri, lo 0 per la somma e 1’1 per il prodotto; entrambe le operazioni sono asso- ciative e commutative, oltre che invertibili (eccetto che per la divisione per lo 0); e il prodotto è distributivo ri- spetto alla somma. Queste proprietà si inquadrano in uno
FONDAMENTI 17 studio generale delle strutture algebriche, i cui esempi più comuni sono: monoidi, gruppi, anelli, corpi e campi. I nu- meri reali costituiscono appunto un esempio di campo. Da un secondo punto di vista, si tratta invece di de- scrivere le proprietà dell’ordine. Per esempio: ogni cop- pia di numeri reali è paragonabile; fra due numeri diver- si ce ne sta sempre un terzo; e non ci sono buchi. Queste proprietà si inquadrano in uno studio generale delle strut- ture d’ordine, e si esprimono con i concetti di totalità, densità e completezza. Da un terzo punto di vista, si tratta infine di descrive- re le proprietà non dei numeri reali individuali, ma di lo- ro dintorni. Per esempio: i numeri reali costituiscono un insieme senza interruzioni; ogni coppia di numeri si può separare mediante intervalli aperti; e sono necessari infi- niti intervalli aperti per ricoprire l’intero insieme dei nu- meri reali. Queste proprietà si inquadrano in uno studio generale delle strutture topologiche, e si esprimono con i concetti di connessione, separabilità e (non) compattezza. I tre punti di vista isolati si possono poi integrare fra loro. Per esempio, le operazioni di somma e prodotto so- no compatibili con le relazioni sia d’ordine che di vici- nanza, nel senso che le preservano (a parte il prodotto per un numero negativo, che inverte l’ordine). Queste pro- prietà si inquadrano in uno studio generale delle struttu- re algebriche ordinate e delle strutture algebriche topolo- giche, in cui le operazioni algebriche sono appunto com- patibili, rispettivamente, con l’ordine e la vicinanza, e i numeri reali forniscono un esempio di campo sia ordi- nato che topologico. Le strutture esistevano già da prima di Bourbaki, ma l’importanza del suo lavoro fu di aver mostrato che su di esse si poteva effettivamente fondare la matematica. L’ap- proccio ebbe un grande successo, perché un numero suf- ficientemente ristretto di strutture madri risultò adegua- to a trattare una gran quantità di casi interessanti, con un ottimo rapporto di efficienza. E l’influsso bourbakista è oggi evidente nelle moderne divisioni della matematica,
18 CAPITOLO PRIMO che non sono più le classiche aritmetica, algebra, analisi e geometria, bensì un’enorme varietà di ibridi, quali l’al- gebra topologica o la geometria algebrica. Ma i vantaggi del bourbakismo non furono soltanto pragmatici: anche da un punto di vista teoretico esso ri- sultò essere un passo avanti rispetto all’approccio insie- mistico. Accantonata la riduttiva considerazione di in- siemi collegati da funzioni, l’attenzione si concentrò su- gli insiemi strutturati, collegati da funzioni che preser- vano la struttura: un’astrazione meno artificiale e dra- stica, che risultò catturare meglio l’essenza degli ogget- ti matematici. 3. Anni ’60: le categorie. Se le fondazioni insiemista e bourbakista furono con- siderate soddisfacenti per buona parte della matematica, e tali rimangono, in alcuni campi i concetti di insieme e struttura risultarono troppo limitati, e richiesero un’e- stensione. Per esempio, come abbiamo già accennato, Grothendieck dovette introdurre la considerazione di un insieme inaccessibile, e quindi della classe di tutti gli in- siemi soddisfacenti gli assiomi della teoria di Zermelo e Fraenkel. Ma alla necessità di un’estensione dell’approc- cio strutturale si arriva anche con considerazioni teori- che, e non soltanto per motivazioni pratiche. Il processo che porta da un esempio concreto, quali i numeri reali, a una struttura astratta, quali i campi topo- logici, da un lato mantiene infatti alcune proprietà signi- ficative dell’esempio, ma dall’altro ne rimuove molte al- tre. Solo in casi eccezionali una struttura ammette so- stanzialmente un solo esempio, e lo descrive dunque completamente. Quando invece una struttura ammette molti esempi radicalmente differenti, come in genere suc- cede, nel focalizzarsi sulle comuni generalità delle sue molteplici realizzazioni essa automaticamente ne sfuoca le individuali particolarità.
FONDAMENTI 19 Un modo per rivendicare la varietà degli esempi con- siste nell’invertire il processo di astrazione, consideran- do la classe di tutti i possibili esempi di una struttura di un certo tipo, collegati da tutte le possibili funzioni che ne preservano la struttura: si arriva cosi al concetto di ca- tegoria, introdotto nel 1945 da Samuel Eilenberg e Saun- ders MacLane. E che il loro lavoro sia un naturale com- plemento di quello di Bourbaki è indicato dal fatto che Eilenberg fu uno dei membri del gruppo: anzi, l’unico non francese della sua intera storia (oltre che premio Wolf nel 1986). Perché il concetto di categoria si possa però conside- rare un’analisi del concetto di struttura, è necessario un nuovo sforzo di astrazione: si tratta cioè di determinare che cosa ci sia di comune fra i vari esempi di categorie ot- tenuti dalle varie strutture. Benché, a prima vista, la loro estrema varietà faccia supporre che questi esempi abbia- no ben poco in comune, la sorprendente scoperta di Ei- lenberg e MacLane fu che essi condividono comunque qualcosa di essenziale: il fatto di essere costituiti da una classe di insiemi collegati da funzioni che si possono com- porre fra loro in maniera associativa, e fra le quali c’è sem- pre almeno la funzione identica. E altrettanto sorprendente fu l’osservazione che, poi- ché le funzioni portano automaticamente con sé gli in- siemi dei loro argomenti e dei loro valori, di questi insie- mi non c’è in realtà bisogno di parlare. In questo modo ci si svincola da qualunque uso residuo della teoria inge- nua degli insiemi, ancora presente nella nozione di insie- me strutturato, e si ottiene una fondazione alternativa e completamente autosufficiente della matematica, basata sui concetti non piu di insieme e di appartenenza, bensì di funzione e composizione. Poiché poi gli insiemi collegati da funzioni sono un particolare esempio di categoria, è sufficiente caratteriz- zare completamente in maniera categoriale le sue pro- prietà, per ridurre l’intera teoria degli insiemi alla teoria delle categorie. Una tale caratterizzazione è stata trovata
20 CAPITOLO PRIMO da William Lawvere nel 1964, e ironicamente essa costi- tuisce un ulteriore passo di analisi logica: così come l’in- tera matematica ottocentesca era stata riformulata in con- cetti insiemistici, si tratta infatti ora di riformulare questi stessi concetti in termini categoriali. La teoria delle categorie è dunque risultata essere una fondazione globale e unitaria della matematica, che con- tiene come casi particolari sia gli insiemi di Zermelo e Fraenkel, che le strutture di Bourbaki. Il che stimola un ulteriore processo di astrazione: come gli insiemi si pos- sono collegare fra loro mediante funzioni, e le strutture di uno stesso tipo si possono collegare fra loro mediante funzioni che preservano quella struttura, dette morfismi, diventa possibile collegare fra loro le categorie mediante funzioni che preservano le proprietà categoriali, dette funtori. Come gli insiemi con le funzioni, o le strutture con i morfismi, costituiscono categorie, verrebbe voglia di dire che le categorie con i funtori costituiscono la categoria del- le categorie. Il problema è però che, da un punto di vista insiemistico, molte categorie costituiscono una classe pro- pria: esse non possono dunque far parte di altre classi, e in particolare costituire gli oggetti di un’altra categoria. La prima soluzione è restringere l’attenzione alle co- siddette categorie piccole, che costituiscono un insieme. Si ottiene allora effettivamente la categoria delle categorie piccole, che generalizza il concetto di classe di tutti gli in- siemi. Essa contiene molti esempi interessanti, ma ovvia- mente non quelli di cui abbiamo parlato, e cioè la cate- goria degli insiemi e le categorie delle strutture. La seconda soluzione è la già citata proposta di Grothendieck, che è appunto sorta in quest’ambito: al- largare la teoria degli insiemi con nuovi assiomi, che per- mettano di considerare classi di classi, classi di classi di classi, e così via. A seconda della potenza di questi assio- mi si ottengono categorie i cui oggetti sono classi, classi di classi, e così via, ma in nessun caso si arriva comunque alla categoria di tutte le categorie.
FONDAMENTI 21 La terza soluzione, forse la più soddisfacente, è un’as- siomatizzazione della nozione stessa di categoria. Essa è stata proposta da Lawvere nel 1966, e svolge in questo ambito un ruolo analogo all’assiomatizzazione della no- zione di insieme di Zermelo e Fraenkel. Inoltre, quando l’assiomatizzazione di Lawvere viene ristretta alle cate- gorie discrete, che sono quelle in cui le uniche funzioni presenti sono le identità, si ottiene un’assiomatizzazione della teoria degli insiemi in forma categoriale. Questi sviluppi permettono alla teoria delle categorie di rivendicare un significativo ruolo di fondazione della matematica per i matematici, espressamente dichiarato nel 1971 dal titolo del classico testo di MacLane: Cate- gories for thè working mathematician, «Categorie nella pratica matematica». Il che non significa che le categorie non abbiano nien- te da offrire ai logici. Come esempio basta considerare la teoria dei tipi, che Russell introdusse nel 1908 come pos- sibile soluzione dei paradossi, e che è una versione della teoria ingenua degli insiemi, basata sugli assiomi di esten- sionalità e comprensione: con le particolarità che gli in- siemi non sono di un solo tipo, e che una proprietà di og- getti di un certo tipo determina un insieme del tipo suc- cessivo. Nel 1969 Lawvere formulò la teoria dei tipi in versione categoriale, ottenendo la teoria dei topor. al suo interno è possibile sviluppare una logica, che è risultata essere equivalente alla logica intuizionista, introdotta dal topologo Luitzen Brouwer nel 1912, e più generale di quella classica aristotelica. Partendo da motivazioni di geometria algebrica, com- pletamente diverse dalle precedenti, anche Grothen- dieck arrivò in maniera indipendente alla teoria dei to- poi. Questa risulta dunque essere un punto di conver- genza di molte discipline, e ha permesso di identificare il motivo che impedisce alla teoria degli insiemi di esse- re una fondazione generale della matematica: detto sem- plicemente, gli insiemi formano un topos la cui logica è classica, e dunque troppo semplice per rendere conto,
22 CAPITOLO PRIMO per esempio, delle complessità della topologia e della geometria algebrica. 4. Anni ’80: il Lambda Calcolo. La teoria degli insiemi ha fornito ai logici una fonda- zione adeguata contro i paradossi. I matematici invece, il cui lavoro quotidiano non è minimamente toccato dalla problematica dei paradossi, hanno trovato nelle struttu- re bourbakiste e nella teoria delle categorie fondazioni più adeguate alla loro pratica. Nessuno dei tre approcci è invece soddisfacente dal punto di vista degli informatici, i quali utilizzano massic- ciamente algoritmi e programmi che lavorano su dati, os- sia funzioni che vengono applicate ad argomenti. Sol- tanto la teoria delle categorie tratta direttamente di fun- zioni, che però non vengono applicate ad argomenti, ma composte fra loro: l’informatica teorica necessita dunque di una fondazione alternativa, e l’ha trovata nel Lambda Calcolo proposto da Alonzo Church nel 1933. L’idea di Church fu appunto di tentare un approccio alternativo ai fondamenti della matematica, parallelo al- la teoria di Cantor e Frege, ma basato sul concetto di fun- zione invece che su quello di insieme, secondo il seguen- te schema: una funzione corrisponde a un insieme, un ar- gomento di una funzione corrisponde a un elemento di un insieme, l’applicazione di una funzione a un argo- mento corrisponde all’appartenenza di un elemento a un insieme, e la definizione di una funzione mediante una descrizione dei valori corrisponde alla definizione di un insieme mediante una proprietà degli elementi. La teoria ingenua degli insiemi si traduce dunque au- tomaticamente in una teoria ingenua delle funzioni. Es- sa si fonda su due soli principi, che riducono le funzioni alle descrizioni dei loro valori. Anzitutto, il principio di estensionalità-. una funzione è completamente determi- nata dai suoi valori, e due funzioni aventi gli stessi valori
FONDAMENTI 23 per gli stessi argomenti sono dunque uguali. Inoltre, il principio di comprensione', ogni descrizione di valori de- termina una funzione, e ogni funzione è determinata da una descrizione di valori. Se la teoria ingenua degli insiemi aveva però potuto ge- nerare molte speranze prima del paradosso di Russell, do- po di esso la teoria ingenua delle funzioni sembra desti- nata a offrirne poche. In particolare, si può pensare che il paradosso sia facilmente riproducibile anche nel nuo- vo contesto. Tentando effettivamente di riprodurlo, ci si imbatte però immediatamente in un problema, e cioè quale si- gnificato assegnare alla negazione nell’ambito delle fun- zioni: la cosa si può accantonare per un momento, sup- ponendo che ci sia appunto una funzione n che agisca in qualche maniera analoga alla negazione. Poiché il para- dosso di Russell si fondava sull'insieme degli insiemi che non appartengono a se stessi, si tratta ora di considerare la funzione i cui valori su un dato argomento si ottengo- no applicando n al risultato dell’applicazione dell’argo- mento a se stesso. Sorge ora un problema: qual è il risultato dell’applica- zione di tale funzione a se stessa? Per la definizione ap- pena data, tale valore si ottiene applicando n al risultato dell’applicazione della funzione a se stessa: esso è dun- que un argomento che non viene cambiato dall’applica- zione di n. Questa è effettivamente una contraddizione, se si suppone che n sia una funzione che cambia tutti gli argomenti a cui viene applicata: ma niente dice che cosi essa sia. Anzi, il ragionamento dimostra appunto che co- si non può essere se la teoria è consistente, nel senso che nessuna funzione può assegnare valori diversi a uno stes- so argomento. Si ha dunque una contraddizione soltanto nel caso che si sappia che la teoria è inconsistente (nel senso appena descritto): ma in questo caso il ragionamento diventa inu- tile, perché era appunto ciò che intendeva dimostrare. Nel caso invece che la teoria sia consistente, l’argomen-
2 4 CAPITOLO PRIMO to prova che nessuna funzione della teoria può cambiare tutti i suoi argomenti: detto altrimenti, ogni funzione de- ve lasciare invariato almeno un argomento, che per que- sto motivo viene detto punto fisso. Per dimostrare l’inconsistenza della teoria di Church l’argomento di Russell non è dunque sufficiente, e que- sto è già un primo risultato parziale. Si può ancora pen- sare che qualche argomento più complicato possa riusci- re nell’intento, ma nel 1936 Church e John Barkley Ros- ser dimostrarono un difficile e famoso teorema, dal quale discende invece che la teoria è consistente: una funzione può anche non assegnare nessun valore a un argomento, ma se ne assegna uno esso è unico. Il teorema di Church e Rosser mostrò cosi che il Lamb- da Calcolo era una teoria singolare, allo stesso tempo ba- sata su principi ingenui, e dimostrabilmente consistente: dunque al riparo dai paradossi, non solo attuali, ma an- che potenziali. La cura sembrò però, a prima vista, più dolorosa della malattia: il prezzo da pagare per la consi- stenza era l’impossibilità di definire all’interno della teo- ria una funzione analoga alla negazione, e più in genera- le di inglobarvi la logica. In un periodo in cui il fascino del programma di riduzione dell’intera matematica alla logica era ancora forte, nonostante le sue pur evidenti dif- ficoltà, la cosa sembrò inaccettabile, e il Lambda Calco- lo non fu considerato un’adeguata fondazione della ma- tematica. Ma già nel 1936 Church e Stephen Kleene mostraro- no che nel Lambda Calcolo era però possibile inglobare l’aritmetica. Il loro risultato si può oggi riformulare nel modo seguente: le funzioni rappresentabili nel Lambda Calcolo sono esattamente quelle descrivibili in uno qua- lunque dei comuni linguaggi di programmazione univer- sali per calcolatori. Naturalmente il risultato di Church e Kleene era futuristico, poiché allora i calcolatori non esistevano, e la sua formulazione originaria non ne pote- va mostrare appieno le potenzialità. Con l’avvento dei calcolatori queste divennero invece evidenti, e la teoria
FONDAMENTI 25 fu rivalutata come la fondazione adeguata per l’informa- tica. In particolare, il teorema del punto fisso è divenuto la giustificazione teorica dei programmi autoreferenziali, o ricorsivi, che sono di uso comune nella programmazio- ne. E la semantica denotazionale del Lambda Calcolo, inaugurata nel 1969 da Dana Scott, ha sviluppato tecni- che che permettono di interpretare i programmi per cal- colatore come veri e propri oggetti di natura matemati- ca, mostrando cosi che l’informatica si può considerare, a buon diritto, come una delle nuove branche della ma- tematica moderna. Per questo suo lavoro Scott ha otte- nuto nel 1976 il Turing Award, che è l’analogo per l’infor- matica della medaglia Fields o del premio Nobel.
Capitolo secondo Matematica pura Per millenni la storia della matematica è stata, sostan- zialmente, la storia dei progressi nella conoscenza di en- tità numeriche e geometriche. Negli ultimi secoli invece, e soprattutto nel xx, sono venute alla luce nuove e di- sparate entità: dapprima placidamente asservite allo stu- dio degli oggetti classici, esse hanno in seguito acquista- to una loro impetuosa indipendenza, e ispirato quella che è stata chiamata una nuova età dell’oro della mate- matica. Se, da un lato, la matematica moderna è dunque il pro- dotto di uno sviluppo che affonda le sue radici in pro- blematiche concrete e classiche, dall’altro essa è anche la testimonianza di un’attività che trova la sua espressione in costruzioni astratte e contemporanee. Sostanzialmen- te, la matematica classica si riduceva a quattro aree, ri- spettivamente dedicate allo studio del discreto e del con- tinuo, ossia dei numeri e delle figure: aritmetica e alge- bra da un lato, geometria e analisi dall’altro. Più difficile è invece elencare le discipline della matematica moder- na, che si riducono sostanzialmente allo studio delle va- rie strutture algebriche, topologiche e d’ordine, e alle lo- ro combinazioni. I pericoli di questa proliferazione, a cui abbiamo già accennato nell’introduzione, sono reali. Ma essi vengono scongiurati dalla constatazione che, al di là dell’apparente frammentazione, la matematica del secolo xx esibisce una sostanziale unità delle sue discipline. L’arcipelago della matematica moderna è infatti collegato da percorsi sot- terranei, misteriosi e invisibili, che inaspettate conver-
MATEMATICA PURA 27 genze di risultati portano alla luce, facendoli emergere e affiorare lentamente. Simbolica di questa unità è la vicenda del teorema di Fermat, di cui parleremo a lungo. Le sue radici affonda- no nelle ricerche pitagoriche sui numeri interi, che cul- minarono nel secolo in a. C. negli Elementi di Euclide. Nel secolo in d. C. Diofanto di Alessandria iniziò uno stu- dio delle soluzioni intere di equazioni a coefficienti inte- ri, e ne trattò diffusamente Aritmetica, un’opera in tredici libri, di cui solo sei sopravvissero. Nel secolo xvn Pierre de Fermat studiò l'opera di Diofanto, e annotò sui margini della sua copia 48 osservazioni, senza dimostra- zioni. Nel secolo xviii tutte le osservazioni di Fermat erano state dimostrate, con una sola eccezione, che divenne per questo motivo nota come l’ultimo teorema di Fermat-. il fatto, cioè, che mentre esistono due quadrati di numeri interi la cui somma è un quadrato (per esempio 9 e 16, la cui somma è 25), non esistono due cubi la cui somma sia un cubo, né due potenze «-esime la cui somma sia una potenza «-esima, se « è maggiore di 2. I tentativi di di- mostrazione dell’ultimo teorema di Fermat produssero, nel secolo xix, grandi progressi nella teoria dei numeri, e la conferma del teorema per un numero sempre maggio- re di esponenti, ma non una dimostrazione generale. Questa fu ottenuta da Andrew Wiles nel 1995, attra- verso un approccio indiretto, a prima vista totalmente scollegato dal problema stesso, e con l’uso di un arsena- le di tecniche completamente astratte. Per la soluzione di un semplice problema numerico, dall'enunciato elemen- tare e classico, si è dunque dovuto fare appello a una va- sta parte della matematica superiore e moderna. E la vi- cenda è simbolica non soltanto dell’apparente continuità dinamica, diacronica e verticale di una singola area della matematica, ma anche della nascosta connessione stati- ca, sincronica e orizzontale fra le sue aree più disparate. Tipico di questa visione della matematica come un tut- to unitario è il programma di Langlands-. enunciato negli
28 CAPITOLO SECONDO anni ’60 da Robert Langlands, esso precisa una serie di congetture sulle possibili connessioni fra aree disparate, e la dimostrazione di Wiles ne costituisce una ancora par- ziale, ma già sostanziosa realizzazione. In riconoscimen- to per quest’opera di unificazione, a Langlands e Wiles è stato attribuito 'A premio Wolfnel 1995-96. Se la teoria dei numeri, di cui il teorema di Fermat è uno degli enunciati, è forse la disciplina in cui le connes- sioni fra il diacronico e il sincronico, il classico e il mo- derno, il concreto e l’astratto tipiche della matematica contemporanea si manifestano nella maniera piu spetta- colare, essa è comunque lungi dall’essere la sola. Un’altra vicenda simbolica è costituita dallo studio del cerchio e della sfera, che sono fra gli oggetti apparente- mente più semplici studiati dalla geometria. Archimede fu il primo a scoprire, nel 225 a. C., l’esistenza di una mi- steriosa connessione fra alcuni loro aspetti: la circonfe- renza e l’area del cerchio, cosi come la superficie e il vo- lume della sfera, sono infatti tutti legati alla stessa costante 7T, per il calcolo della quale vennero sviluppati nei secoli vari metodi (geometrici, algebrici e analitici). Nonostante l’apparente semplicità di cerchio e sfera, alcuni progressi sostanziali nel loro studio dovettero at- tendere il secolo xix. Anzitutto, fu necessario lo svilup- po di sofisticati metodi algebrici e analitici per dimostra- re l’impossibilità del problema puramente geometrico della quadratura del cerchio (la costruzione mediante ri- ga e compasso di un quadrato di area uguale a quella di un cerchio dato). Inoltre, metodi topologici permisero di distinguere la sfera dalle altre superfici chiuse dello spa- zio tridimensionale: sostanzialmente, essa è l’unica su- perficie che permette a ogni elastico disteso su di essa di contrarsi fino a raggiungere un solo punto. Infine, meto- di differenziali permisero di mostrare che il calcolo infi- nitesimale si può estendere dal piano alla sfera in una so- la maniera. Alcuni degli studi fondamentali della matematica del secolo xx riguardano Vipersfera, che è per lo spazio a 4
MATEMATICA PURA 29 dimensioni ciò che il cerchio e la sfera sono per lo spazio a 2 e 3 dimensioni. Uno dei più importanti problemi aper- ti della matematica moderna che discuteremo nel segui- to, detto congettura di Poincaré, chiede se valga una ca- ratterizzazione topologica dell’ipersfera analoga a quella della sfera. E già stato invece dimostrato che il calcolo in- finitesimale si può estendere dallo spazio alla ipersfera in una sola maniera. Cerchio, sfera e ipersfera sono casi particolari di sfe- re a n dimensioni in spazi a n +1 dimensioni, e alcuni dei risultati più importanti e profondi della matematica mo- derna, sui quali ritorneremo nel seguito, sono stati otte- nuti proprio considerando sfere a più dimensioni. Per esempio, l’analogo della congettura di Poincaré è stato dimostrato per le sfere a qualunque dimensione mag- giore di 3, e si sono trovati molti modi non equivalenti di estendere il calcolo infinitesimale alla sfera a 7 dimen- sioni. Questi e altri risultati hanno portato alla luce un ap- parente paradosso: col crescere del numero di dimensio- ni, benché gli oggetti diventino più difficili da visualiz- zare intuitivamente, essi diventano più facili da trattare matematicamente, perché c’è più spazio per manipolar- li. Per esempio, rivoltare un guanto destro in modo da farlo diventare un guanto sinistro è facile nello spazio a quattro dimensioni, ma difficile (benché non impossibi- le, per un teorema di Stephen Smale del 1959) nello spa- zio a tre dimensioni. L’impressione è confermata anche a un livello ele- mentare, per esempio dal computo del numero dei «po- liedri» regolari, che sono 5 nello spazio a 3 dimensioni (i famosi solidi platonici), 6 nello spazio a 4 dimensioni, ma solo 3 negli spazi a dimensione maggiore. Ironicamente, i casi più difficili da studiare sono risultati essere proprio quelli a 3 o 4 dimensioni, corrispondenti allo spazio e al- lo spazio-tempo in cui viviamo. Gli esempi precedenti mostrano come anche lo studio di proprietà elementari di oggetti semplici, quali i nume-
CAPITOLO SECONDO 3Q ri interi e le figure geometriche, possa richiedere lo svi- luppo di tecniche sofisticate e di aree astratte. E poiché è proprio questa prospettiva che permette di giustificare a posteriori sia gli oggetti che i metodi della matematica moderna, a essa ci atterremo per esporne le tappe più si- gnificative. 1. Analisi: la misura diLebesgue (1902). Per sua stessa definizione, la geometria (da geo, «ter- ra», e metrein, «misura») si interessa di problemi relati- vi a lunghezze di curve, aree di superfici e volumi di so- lidi. E questi problemi furono affrontati in maniera si- stematica a partire dagli Elementi di Euclide, che fornirono nel 300 a. C. una fondazione geometrica del- l’intera matematica greca. Consideriamo per esempio, per fissare l’attenzione, il problema dell’area. Euclide non diede alcuna definizio- ne né di essa né di una sua misura, ma enunciò alcune «nozioni comuni» dalle quali si deducono le seguenti proprietà: superfici «uguali» hanno aree uguali {inva- rianza}-, una superficie che si ottiene «sommando» fra lo- ro un numero finito di superfici, ha un’area pari alla som- ma delle aree di queste {additività finita}-, una superficie contenuta in un’altra ha un’area minore o uguale di que- sta {monotonicità}. Sulla base delle prime due di queste nozioni, si può ar- rivare ad assegnare un’area a ogni poligono in due passi: da un lato, assegnando un’area a ogni triangolo (per esempio, «base per altezza diviso 2»); dall’altro, scom- ponendo il poligono in triangoli, e sommando le aree di questi. Naturalmente, affinché tutto funzioni si dovrà di- mostrare: da un lato, che l’area di un triangolo non di- fende dalla scelta della base e della relativa altezza; dal- ..’altro, che l’area di un poligono non dipende dalla scel- ta della triangolazione. Benché questi sviluppi siano impliciti in Euclide, il suo
matematica pura 31 trattamento era estremamente carente da un punto di vi- sta logico e usava in particolare numerose assunzioni na- scoste, che vennero accuratamente esplicitate solo nel- l’Ottocento. Il lavoro di sistematizzazione della geome- tria euclidea si concluse nel 1899, con la pubblicazione dei Fondamenti della geometria di Hilbert. Nel 1833 Jànos Bolyai dimostrò un interessante teore- ma, che costituisce un complemento ai risultati di Eucli- de appena citati: due poligoni che hanno la stessa area si possono decomporre in un numero finito di triangoli equivalenti. In particolare, ogni poligono si può «qua- drare», nel senso di decomporlo in un numero finito di triangoli che, ricomposti, costituiscono un quadrato con la stessa area. O, viceversa, un quadrato si può far diven- tare un qualunque poligono, ricomponendo una sua ap- propriata decomposizione in triangoli (figura 2). Per quanto riguarda i volumi di poliedri, si può im- maginare un trattamento analogo, in cui le triangolazio- ni vengano rimpiazzate da scomposizioni in tetraedri. E il terzo problema di Hilbert domandava se vale un teore- ma analogo a quello di Bolyai: se, cioè, ogni poliedro si può decomporre in un numero finito di tetraedri che, ri- composti, costituiscono un cubo con lo stesso volume. Una risposta negativa fu immediatamente data da Max Dehn: egli mostrò, per esempio, che la cosa non è già pos- sibile per i tetraedri stessi. Figura 2. «Quadratura» di un triangolo.
32 CAPITOLO SECONDO Una volta risolto il problema dell’area per figure retti- linee quali i poligoni, si deve naturalmente passare a quel- lo dell’area per figure curvilinee, prima fra tutte il cer- chio. L’idea qui è di approssimare queste figure median- te poligoni, sia dall’interno che dall’esterno: per la terza nozione comune di Euclide, l’area della figura curvilinea sarà compresa fra le aree di queste approssimazioni; e se queste tendono a un limite comune, l’area della figura coinciderà con questo limite. Questa nozione generale è però piuttosto recente, ed è stata introdotta soltanto nel 1887 da Giuseppe Peano, e nel 1893 da Camille Jordan. Un primo caso speciale, che usa poligoni (semi)regolari, è il metodo di esaustione di Eudosso, risalente al secolo iv a. C., e usato da Archime- de verso il 225 a. C. per calcolare l’area del cerchio e la superficie della sfera. Un secondo caso speciale, che usa ooligoni costituiti da un numero finito di rettangoli, è integrale di Riemann, introdotto nel 1854 da Bernhard Riemann, e che permette di calcolare l’area di qualunque superficie il cui bordo sia delimitato da funzioni continue. Li realtà, dal Seicento all’Ottocento l’esistenza dell’a- rea di una superficie veniva data per scontata, e gli inte- grali erano considerati soltanto il metodo per calcolarla. Fu Augustin Cauchy, nel 1823, a ribaltare l’approccio, e a definire l’area come l’integrale stesso: il che pose il pro- blema di determinare quali superfici avessero un’area, e in particolare quali funzioni avessero un integrale. La nozione di integrale di Riemann è molto generale, e permette di integrare anche funzioni con infinite di- scontinuità, purché queste non costituiscano un insieme «smisurato». Verso la fine del secolo, con il proliferare di esempi di funzioni non integrabili nel senso di Rie- mann, divenne però una necessità il poter precisare una misura dell’insieme di discontinuità, che permettesse di separare le funzioni integrabili da quelle che non lo sono. La nozione introdotta da Peano e Jordan non risultò essere sufficiente, e il problema fu risolto definitivamen- te da Henri Lebesgue nel 1902, con il concetto di misu-
MATEMATICA PURA 33 ra di Lebesgue. Sostanzialmente, egli rimpiazzò l’additi- vità finita di Euclide con l’additività numerabile: una su- perficie che si ottiene «sommando» fra loro una quan- tità numerabile di superfici, ha un’area pari alla somma delle aree di queste. E oggi si considera una superficie do- tata di area (o un solido dotato di volume) quand’essa è misurabile nel senso di Lebesgue. Forte della sua definizione di insieme misurabile, Le- besgue potè mostrare che una funzione è integrabile nel senso di Riemann esattamente quando l’insieme delle sue discontinuità ha misura 0: il che non esclude che l’insie- me possa essere molto grande, per esempio contenere tanti punti quanti l’insieme dei numeri reali stesso, ben- ché esso non possa essere troppo «denso». Inoltre, cosi come l’integrale di Riemann è un caso par- ticolare della misura di Peano e Jordan, si può definire un integrale di Lebesgue che è un caso particolare della misura di Lebesgue. Le funzioni integrabili nel senso di Riemann lo sono anche nel senso di Lebesgue, e con lo stesso valore, ma ci sono funzioni integrabili nel senso di Lebesgue che non lo sono nel senso di Riemann. Quanto al problema di determinare quali insiemi sia- no misurabili, Giuseppe Vitali dimostrò immediatamen- te che non tutti lo sono. E si scopri poi che con gli insie- mi non misurabili si possono fare cose che non è possibile fare con quelli misurabili. Al punto che, a causa dell’abi- tudine a trattare con insiemi misurabili, quelli non misu- rabili possono apparire paradossali. Per esempio, nel 1914 Felix Hausdorff dimostrò che, data una sfera, è possibile suddividere la sua superficie in un numero finito di pezzi (ovviamente, non misurabili) che, ricomposti, costituiscono due sfere, ciascuna con la stessa area di quella iniziale. E nel 1924 Stefan Banach e Alfred Tarski dimostrarono un risultato analogo per i vo- lumi. In altre parole, nello spazio aree e volumi non si pre- servano per scomposizione in pezzi non misurabili. Un analogo dei paradossi precedenti non è possibile nel piano. Ma nel 1988 Miklos Laczkovich dimostrò che,
34 CAPITOLO SECONDO dato un cerchio, è possibile suddividerlo in un numero finito (benché enorme: circa IO51’) di pezzi (non misura- bili) che, ricomposti, costituiscono inquadrato della stes- sa area. In altre parole, nel piano la curvatura non si pre- serva per scomposizione in pezzi non misurabili. 2. Algebra: la classificazione dei campi di Steinitz (1910). Come dice il loro stesso nome, i numeri naturali costi- tuiscono una delle intuizioni primordiali della matema- tica: in quanto probabili astrazioni del battito cardiaco, essi affondano le loro radici nel divenire e nel tempo, co- si come i punti geometrici sono invece un’astrazione del- l’essere e dello spazio. Storicamente, la prima estensione dei numeri natura- li fu quella dei numeri razionali positivi, che permette un’inversione del prodotto. Poiché la divisione non pre- senta grandi difficoltà concettuali, i razionali erano or- mai ben stabiliti nel secolo vi a. C., e furono presi dai Pi- tagorici a fondamento della loro filosofia. L’estensione dei numeri naturali ai numeri interi, po- sitivi e negativi, richiese invece due innovazioni essenziali. La prima fu l’apparizione dello zero, la cui mancanza non permette neppure di porre il problema dell’inversione della somma: esso fu introdotto nel secolo vii d. C. dagli Indiani, e nella seconda metà del primo millennio dai Maya. La seconda innovazione fu la considerazione di quantità negative, che non hanno senso fino a che i nu- meri vengono considerati alla maniera greca, come mi- sure di quantità geometriche: anche i negativi furono in- trodotti nel secolo vii d. C. dagli Indiani, come misura di debiti. Integrando le due estensioni precedenti, con la consi- derazione dei numeri razionali sia positivi che negativi, si ottiene il primo esempio di campo-, cioè, secondo la defi- nizione data da Heinrich Weber nel 1893, di un insieme
MATEMATICA PURA 35 di elementi dotato di operazioni di somma e prodotto che godono delle proprietà usuali, compresa l’invertibilità. Se gli Indiani adottarono esplicitamente per primi il cam- po dei razionali, gli Arabi dapprima e gli Europei poi ri- fiutarono invece i numeri negativi fino al secolo xvm, e ancora nel 1831 Augustus de Morgan ne negava la sen- satezza. Un secondo esempio tipico di campo è dato dai nu- meri reali. Se gli irrazionali furono scoperti dai Pitagori- ci, e manipolati formalmente da Indiani e Arabi, essi non furono considerati numeri che nel secolo xvn, a partire da René Descartes e John Wallis. E si dovette addirittu- ra attendere la metà del secolo xix per arrivare a defini- zioni dei numeri reali, basate sui numeri razionali: le se- zioni di Richard Dedekind nel 1858, e le successioni con- vergenti di Georg Cantor (e altri) nel 1872. I numeri complessi furono introdotti da Gerolamo Car- dano nel 1545, per la soluzione delle equazioni di terzo grado, e le operazioni di campo su di essi furono definite da Raffaele Bombelli nel 1572: ma in entrambi i casi si trattava di artifici formali con puri simboli, che non rap- presentavano altro che «numeri immaginari», e tale at- teggiamento persistette fino al secolo xvm. Solo il teo- rema fondamentale dell’algebra, che stabilisce che ogni polinomio di grado n a coefficienti complessi ha n zeri complessi e fu dimostrato per la prima volta da Gauss nel 1799, diede loro lo stato di numeri indipendenti, e forni il primo esempio di campo algebricamente chiuso', che con- tiene, cioè, tutte gli zeri dei suoi polinomi. La definizione formale dei numeri complessi, come coppie di numeri reali, e delle relative operazioni di campo fu data da Wil- liam Hamilton nel 1837. Sia Evariste Galois nel 1830, che Dedekind nel 1871, arrivarono con motivazioni diverse alla definizione di un’intera classe di campi, mediante un procedimento di estensione dei razionali. Essi considerarono cioè, dato un irrazionale et, il minimo insieme di numeri reali (o com- plessi) che forma un campo, e contiene sia i razionali che
CAPITOLO SECONDO a stesso: tale insieme si può generare direttamente, par- tendo da a e facendone tutte le possibili addizioni, sot- trazioni, moltiplicazioni e divisioni (eccetto che per 0). Se l’elemento a che si aggiunge è lo zero di un polinomio a coefficienti razionali, come nel caso di f2, allora l’e- stensione si chiama algebrica', altrimenti, come nel caso di n, si chiama trascendente. Oltre ai campi infiniti, di cui sono esempi tutti i pre- cedenti, ci sono anche campi finiti. Basta, per esempio, considerare gli interi modulo n, del tipo di quelli per le ore della giornata (a 12 o 24 elementi), o per i minuti del- l’ora (a 60 elementi): essi sono generati come gli interi so- liti, partendo da 0 e continuando ad aggiungere 1, con la differenza che quando si raggiunge n ci si ritrova invece a 0. Affinché gli interi modulo n costituiscano un campo è necessario e sufficiente che n sia un numero primo. Gli esempi precedenti mostrano come le nozioni del- la matematica moderna, di cui quella di campo fu uno dei primi esempi significativi, permettano di unificare una gran varietà di esempi disparati, sulla base di alcune loro caratteristiche comuni. Proprio la generalità di tali no- zioni tende però spesso a sfuocarne i contorni, rischian- do di renderle quasi inafferrabili: per descriverne l’e- stensione si rendono dunque necessari risultati di classi- ficazione, che costituiscono un aspetto complementare dell’astrazione. Uno dei primi esempi di tali risultati fu appunto la clas- sificazione dei possibili tipi di campi: essa fu trovata da Ernst Steinitz nel 1910, sulla base della seguente nozio- ne di caratteristica. Dato un campo, si parte dall’elemen- to che funge da 0, e si continua ad aggiungere l’elemen- to che funge da 1 : se dopo p somme ci si ritrova a 0, p de- ve essere un numero primo, e si dice che il campo ha caratteristica p; se invece non ci si ritrova mai a 0, si dice che il campo ha caratteristica 0. I tipi di campi finiti si possono immediatamente ca- ratterizzare, in base alla caratteristica: per ogni primo p, ci sono infiniti campi finiti di caratteristica p, detti campi
MATEMATICA PURA 37 di Galois. Essi hanno un numero di elementi che è una potenza positiva di p, e per ogni potenza positiva di p ne esiste esattamente uno. Dato un campo qualunque, si definisce poi il suo cam- po primo partendo da 0 e 1, e facendo tutte le possibili addizioni, sottrazioni, moltiplicazioni e divisioni (eccet- to che per 0). Se la caratteristica del campo di partenza è p, il suo campo primo è una copia dei numeri interi mo- dulo p. Se invece la caratteristica è 0, il campo primo è una copia dei numeri razionali. E ogni campo si può ot- tenere dal suo campo primo, mediante successive esten- sioni: dapprima una serie, eventualmente infinita, di estensioni trascendenti; e poi una serie, eventualmente infinita, di estensioni algebriche. Viceversa, partendo da un campo qualunque si può ef- fettuare una serie di estensioni algebriche, fino a costrui- re la sua chiusura algebrica, cioè il minimo campo alge- bricamente chiuso che lo contiene. Il che esemplifica una delle tipiche ricadute dell’astrazione, e cioè la possibilità di ottenere versioni generali di risultati particolari: in que- sto caso, l’estensione a campi qualunque del processo di chiusura che porta dai numeri reali ai numeri complessi, mediante l’aggiunta di tutti i possibili zeri di polinomi. 3. Topologia: il teorema del punto fisso di Brouwer (1910). Sviluppando la teoria degli insiemi come fondamen- to della matematica, Cantor si trovò spesso a scoprire proprietà inaspettate. Una delle più sorprendenti ri- guardò la fondamentale nozione geometrica di dimen- sione: spazi di dimensione diversa, quali una retta e un piano, possono infatti avere lo stesso numero di punti, ed essere quindi indistinguibili dal punto di vista insie- mistico. La scoperta turbò tanto Cantor da fargli escla- mare, dopo averla dimostrata nel 1874: «lo vedo, ma non ci credo».
38 CAPITOLO SECONDO Il risultato di Cantor non significava, ovviamente, che la nozione di dimensione fosse un’illusione da cui bisognava liberarsi. Piuttosto, esso indicava un limite oltre il quale le nozioni puramente insiemistiche risultavano inadeguate, e dovevano cedere il passo ad altre di natura diversa. Nel 1910 Luitzen Brouwer mostrò che la topologia, cioè lo studio di quelle proprietà degli oggetti geometri- ci che si preservano quando gli oggetti vengono defor- mati in maniera continua, senza romperli, è in grado di distinguere dimensioni diverse: per esempio, sia una ret- ta che un piano sono costituiti di un pezzo solo, ma una retta si spezza in due parti se le si toglie un punto, men- tre un piano no (la proprietà topologica in questione si chiama connessione}. Naturalmente, il teorema di inva- rianza della dimensione fu dimostrato da Brouwer in ge- nerale: più precisamente, per qualunque oggetto topo- logico che si possa triangolare in maniera analoga a quan- to si può fare per le superfici solite (tali oggetti si chiamano complessi, e i costituenti delle triangolazioni simplessi}. La maggiore scoperta di Brouwer riguarda però una proprietà delle trasformazioni continue, che costituisco- no il principale oggetto di studio della topologia. Egli di- mostrò infatti, sempre nel 1910, un teorema del punto fis- so che è divenuto uno strumento essenziale nelle aree più disparate, dall’analisi all’economia. Nel caso unidimensionale, il teorema di Brouwer si ri- duce al fatto che una funzione continua che abbia come argomenti e valori tutti i punti di un intervallo, deve la- sciare invariato almeno un punto: un fatto intuitivamen- te evidente, che significa semplicemente che ogni curva all’interno di un quadrato unitario, che si estenda senza interruzioni da un lato all’altro, deve attraversare la dia- gonale almeno una volta (figura 3). Nel caso bidimensionale, il teorema di Brouwer dice che una funzione continua che abbia come argomenti e valori tutti i punti di un cerchio, deve lasciare invariato almeno un punto. Per esempio, se si rastrella in maniera
MATEMATICA PURA 3 9 continua la ghiaia di un’aiuola circolare, deve esserci al- meno un sassolino che non viene mosso. Il teorema di Brouwer vale più in generale di quanto i due esempi citati lascino supporre. Da un lato, esso si estende agli analoghi multidimensionali di intervalli e cer- chi, tipo sfere e ipersfere: un esempio di applicazione nel caso tridimensionale è che, se il vento soffia su tutta la terra, esso deve soffiare verticalmente in almeno un pun- to, e dunque deve esserci un ciclone. Dall’altro lato, il teo- rema vale per tutte le funzioni definite su simplessi, cioè su superfici che siano sufficientemente simili a intervalli e cerchi: ossia, limitate e provviste di bordo, e senza rien- tranze (proprietà topologiche, queste, che si chiamano compattezza e convessità). La dimostrazione originaria del teorema mostrava in- direttamente l’esistenza di un punto fisso, ma non indi- cava direttamente come fare a trovarne uno: ironicamen- te, lo stesso Brouwer sviluppò poi una filosofia della ma- tematica, detta intuizionismo, che considera illegittimo un tale tipo di dimostrazioni non costruttive. Nel caso parti- colare del teorema del punto fisso, comunque, una di- mostrazione costruttiva è stata data nel 1929 da Emma- nuel Sperner: con l’avvento del computer i calcoli da es- sa richiesti sono divenuti praticabili, e oggi si possono dunque trovare punti fissi in maniera effettiva. In un’altra direzione, le condizioni per l’esistenza di Figura 3. Teorema del punto fisso unidimensionale.
40 CAPITOLO SECONDO punti fissi sono state variamente generalizzate. In parti- colare, alcuni teoremi di grande utilità sono stati dimo- strati: nel 1922 da Banach, per contrazioni definite su spa- zi metrici completi (in cui, a differenza dagli spazi topolo- gici astratti, esiste una nozione di distanza); nel 1928 da Knaster e Tarski, per funzioni monotone definite su ordi- niparziali completi (in cui ogni catena di elementi ha un estremo superiore); nel 1928 da Solomon Lefschetz, per funzioni continue definite su complessi compatti e con- traibili, invece che solo su simplessi; e nel 1941 da Kaku- tani, per funzioni semicontinue i cui insiemi di immagini siano tutti convessi, invece che solo per funzioni continue. 4. Teoria dei numeri: i numeri trascendenti di Gelfond (1929). La scoperta fondamentale di Pitagora, nel secolo vi a. C., fu che esiste una corrispondenza fra musica, natu- ra e matematica: i rapporti armonici (gli intervalli) corri- spondono a rapporti fisici (tra le corde di uno strumen- to), e sono quantificati da rapporti numerici (le frazioni). I Pitagorici videro in queste coincidenze non un caso, ma il manifestarsi di una necessità, che codificarono nel cre- do: «tutto è razionale», da intendersi nel senso letterale che tutto si può descrivere mediante numeri razionali (ra- tio significa appunto «rapporto»). Il credo fu immediatamente messo in crisi dall’ulte- riore scoperta pitagorica di grandezze incommensurabi- li, che corrispondono a numeri irrazionali-, in matemati- ca, la diagonale e il lato di un quadrato, il cui rapporto è v'2; e in musica, gli intervalli di ottava e di quinta, il cui rapporto è (log2 3 ) - 1. Un altro semplice esempio di irrazionale è (2, che ri- solve un problema riguardante la duplicazione di un alta- re. Durante la pestilenza di Atene del 430 a. C., che ucci- se un quarto della popolazione, gli ateniesi interrogarono infatti l’oracolo di Apollo a Deio, che chiese di raddop-
MATEMATICA PURA 41 piare l’altare cubico del Dio. Gli ateniesi ne costruirono uno di lato doppio, che però aumentò il volume di otto volte, e la peste continuò. La soluzione corretta è appun- to \ 2, che misura il rapporto fra i lati di due cubi di volu- me uno doppio dell’altro, cosi come \2 misura il rappor- to fra i lati di due quadrati di area una doppia dell’altra. La classificazione dei numeri reali in razionali e irra- zionali è piuttosto cruda, e una classe interessante di nu- meri reali fu introdotta implicitamente già dai Greci: i nu- meri costruibili con riga e compasso. Per esempio, J2 è costruibile, ma J2 no. I Greci sospettarono quest’ultimo fatto, ma la dimostrazione fu data soltanto nel 1837, da Pierre Wantzel: essa richiese una caratterizzazione alge- brica dei numeri costruibili con riga e compasso, le cui rispettive applicazioni corrispondono alle operazioni di somma ed estrazione di radice quadrata. Tutti i numeri costruibili sono comunque algebrici, nel senso di essere soluzioni di equazioni algebriche a coef- ficienti interi, ma non viceversa: per esempio, è alge- brico, perché soluzione di x3-2 = 0, ma non costruibile. I numeri non algebrici si chiamano trascendenti, e la lo- ro esistenza fu provata per la prima volta nel 1844 da Jo- seph Liouville. La dimostrazione di Liouville si basava su un’osserva- zione interessante: il fatto che un numero algebrico irra- zionale non può essere bene approssimato mediante nu- meri razionali, nel senso che quasi tutte le frazioni di de- nominatore q che approssimino un numero irrazionale che è soluzione di un polinomio di grado n, compiono un errore di almeno —. Per costruire un numero trascen- dente è dunque sufficiente costruire un numero irra- zionale, cioè non periodico, che può però essere bene approssimato mediante numeri razionali, per esempio 0,10100100000010000000000000000000000001.., dove il primo blocco di zeri dopo la virgola ne ha 1, il se-
42 CAPITOLO SECONDO condo 1 • 2, il terzo 1 • 2 • 3, e cosi via: troncando lo svi- luppo agli 1 dopo la virgola si ottengono buone appros- simazioni razionali, corrette fino al prossimo 1 (che è sem- pre più lontano). Molti miglioramenti furono apportati, per un intero se- colo, all’osservazione di Liouville. Il miglior risultato pos- sibile è stato ottenuto da Klaus Roth nel 1955: quasi tut- te le frazioni di denominatore q che approssimino un nu- mero irrazionale algebrico compiono un errore di al- meno -jy, per qualunque numero reale 2+ maggiore di 2 (il risultato non vale per 2). Per questo suo risultato, Roth ottenne la medaglia Fields nel 1958. La migliore estensione possibile del solo enunciato esi- stenziale del teorema di Liouville fu invece trovata nel 1873 da Cantor: quasi tutti i numeri reali sono trascen- denti, perché i numeri algebrici sono molto pochi. Più precisamente, questi formano un insieme che è numera- bile nel senso di Cantor, e di misura 0 nel senso di Le- besgue. Il risultato di Cantor non diceva comunque nulla sul- la trascendenza di specifici numeri reali. Per quanto ri- guarda e, la base dei logaritmi naturali, la sua trascen- denza fu congetturata nel 1748 da Leonhard Euler, e di- mostrata nel 1873 da Charles Hermite. Dalla trascen- denza di e deriva immediatamente anche quella di e2 e di v e=e* più in generale di ex, per ogni esponente razio- nale (diverso da 0). Nel 1882 Ferdinand Lindemann este- se la dimostrazione, e provò che ex è trascendente anche se x è solo algebrico (diverso da 0), e da questo risultato derivò un gran numero di conseguenze. Anzitutto, anche log x deve essere trascendente se x è algebrico (diverso da 0 e 1), perché eÌ0SX=x. Inoltre, poiché Euler aveva prova- to nel 1746 che e -cosx + zsenx, dove i è l’immaginaria radice di -1 (che, benché non rea- le, è pur sempre algebrica, perché soluzione di x2 -4-1 = 0),
matematica pura 43 ne deriva che anche senx e cosx sono trascendenti, se x è algebrico. Un caso speciale del risultato di Lindemann, partico- larmente importante, si ha quando x = 7T: in questo caso l’espressione di Euler si riduce a quella che molti consi- derano la formula piu bella della matematica, cioè ei7t = -1 L’esponente in produce dunque un valore non tra- scendente di e dal teorema di Lindemann segue che questo esponente non può essere algebrico: e poiché i è algebrico, deve essere n a non esserlo. Il fatto che n sia trascendente implica, in particolare, la non costruibilità di 7T, e dunque l’impossibilità di un altro famoso proble- ma greco rimasto aperto per due millenni: la quadratura del cerchio (con riga e compasso). Allo scadere del secolo xix non molti altri numeri tra- scendenti, oltre a e e n, erano però esplicitamente noti, e il settimo problema di Hilbert chiese se tale fosse, per esempio, 2 2. Più in generale, Hilbert congetturò che ah è sempre trascendente, se a è algebrico (diverso da 0 e 1) e b è irrazionale algebrico. Ancora nel 1919 Hilbert riteneva che questo proble- ma fosse più difficile da risolvere dell’ipotesi di Riemann o del teorema di Fermat. Nel 1929 Alexandr Gelfond di- mostrò invece la trascendenza di e71, introducendo una nuova metodologia: essa portò nel 1930 alla dimostra- zione della trascendenza di 2 2 da parte di Cari Siegei, pre- mio Wolf nel 1978, e nel 1934 dell’intera congettura di Hilbert da parte di Gelfond e Thorald Schneider. Nel 1966 Alan Baker portò a compimento i risultati di un se- colo, provando che un qualunque prodotto finito di nu- meri trascendenti del tipo trovato da Lindemann e/o da Gelfond, per esempio e712'2, è ancora trascendente: per questo risultato Baker ottenne la medaglia Fields nel 1970. Nonostante i progressi citati, i numeri trascendenti ri- mangono comunque abbastanza misteriosi. I numeri più ovvi la cui trascendenza non è nota sono e + n, e n e rt,
44 CAPITOLO SECONDO ma ne esistono molti altri: per esempio, la costante ydiEu- ler, che misura la differenza asintotica fra il logaritmo e la serie armonica, cioè la somma degli inversi dei numeri in- teri; o la costante f(3), cioè la somma degli inversi dei cu- bi dei numeri interi (la costante £(2), cioè la somma degli inversi dei quadrati dei numeri interi, è trascendente per- ché Euler calcolò, nel 1734, che il suo valore è -— ). 6 5. Logica: il teorema di incompletezza di Godei (1931). Uno dei grandi successi matematici del secolo xix fu la scoperta della geometria iperbolica-, di una geometria, cioè, in cui l’assioma delle parallele è falso. I rimanenti assiomi della geometria euclidea permettono di dimo- strare, data una retta e un punto fuori 'di essa, che esiste almeno una parallela alla retta passante per il punto (la perpendicolare alla perpendicolare). L’assioma delle pa- rallele afferma che di parallele ne esiste una sola, e la sua negazione implica dunque che ne esista più di una. Molti matematici si dedicarono a sviluppare la geo- metria iperbolica, in cui l’assioma delle parallele è falso, nella speranza di mostrare che questa geometria è incon- sistente, e dunque di dimostrare per assurdo che l’assio- ma delle parallele è vero. E nella prima metà dell’Otto- cento Cari Friedrich Gauss, Nikolai Lobachevsky e Jà- nos Bolyai mostrarono effettivamente che la supposta geometria iperbolica è molto strana: per esempio, non tutti i triangoli hanno la stessa somma angolare; per tre punti non collineari non passa necessariamente un cer- chio; non esistono rettangoli, né rette equidistanti; e il teorema di Pitagora è falso. Ma, per quanto strana, la geometria iperbolica non si rivelò contraddittoria. E nel 1868 Eugenio Beltrami mo- strò che essa è tanto consistente quanto quella euclidea: è infatti possibile trovare un modello del piano iperboli- co nel piano euclideo. I modelli più noti della geometria
matematica pura 45 iperbolica furono poi trovati da Felix Klein nel 1871, e da Henri Poincaré nel 1882: in entrambi il piano iperbo- lico è un cerchio senza il bordo; nel primo le rette sono segmenti euclidei, ma gli angoli si devono misurare in una maniera diversa da quella euclidea; nel secondo gli angoli sono quelli euclidei, ma le rette sono archi di cerchio per- pendicolari al bordo (figure 4 e 5). Una volta ridotta la consistenza della geometria iper- bolica a quella della geometria euclidea, bisognava affron- tare quest’ultima. Una dimostrazione diretta sarebbe sta- ta necessaria per i Greci, poiché essi avevano adottato una fondazione geometrica all’intera matematica, in seguito al- la scoperta pitagorica dei numeri irrazionali. Per esempio, negli Elementi Euclide rappresentava i numeri come seg- menti, l’addizione come concatenazione di segmenti, la moltiplicazione come area di un rettangolo, e cosi via. Una riduzione inversa, della matematica all’algebra, fu stimolata dalla geografia e dall’astronomia. Nel secolo n a.C. Ipparco, lo scopritore della precessione degli equi- nozi, iniziò a usare coordinate di punti per descrivere cur- ve date, ma soltanto rispetto a un sistema scelto di volta in volta, in base alla curva. Il primo a scegliere un siste- ma di coordinate fisso fu Oresme, nel secolo xiv: egli era ancora talmente legato all’uso geografico, da continuare a chiamare le coordinate «longitudine» e «latitudine». Figure 4-5. Modelli di Klein e Poincaré.
46 CAPITOLO SECONDO L’introduzione di una notazione algebrica soddisfa- cente, in particolare l’uso di lettere per indicare variabi- li, permise a Pierre de Fermat nel 1629, e a René Descar- tes nel 1637, di sviluppare la geometria analitica. L’osser- vazione cruciale fu che, mettendo in corrispondenza i punti con dei numeri, si otteneva anche una corrispon- denza indotta fra le proprietà dei punti e quelle dei nu- meri. Per esempio, le equazioni di primo e secondo gra- do descrivono, rispettivamente, le rette e le coniche (el- lisse, iperbole, parabola). Sia per Fermat che per Descartes l’algebra era co- munque subordinata alla geometria, e Newton stesso continuò a trattare, nei Principia, le orbite dei pianeti al- la maniera geometrica dei Greci, e non in modo algebri- co. Il cambiamento di rotta fu opera di John Wallis, che nel 1657 riformulò algebricamente due libri di Euclide, e il trattato sulle coniche di Apollonio. Una effettiva riduzione della geometria all’algebra do- vette però attendere i Fondamenti della Geometria di Hil- bert, nel 1899. Egli definì un modello algebrico della geo- metria euclidea, nel modo oggi usuale: un punto del pia- no è una coppia di numeri reali; una retta è l’insieme delle soluzioni di un’equazione di primo grado; la distanza fra due punti è definita mediante il teorema di Pitagora; e la congruenza mediante il concetto di isometria (trasfor- mazione lineare che preserva le distanze). Non si tratta comunque soltanto di definizioni: bisogna dimostrare che una isometria preserva non soltanto le distanze ma anche gli angoli, e la dimostrazione non è banale. Alla fine del secolo xix la consistenza dell’intera geo- metria era dunque stata ridotta a quella della teoria dei numeri reali. Questo gioco di scarica-barile poteva con- tinuare ancora, per esempio riducendo la teoria dei nu- meri reali a quella dei numeri interi. Anzi, la cosa era già stata fatta alcuni decenni prima da Karl Weierstrass, Georg Cantor e Richard Dedekind, il che aveva permes- so a Leopold Kronecker di esclamare: «Dio ha creato i numeri interi, tutto il resto è opera dell’uomo». Ma pri-
matematica pura 47 ma o poi si sarebbe dovuta dimostrare la consistenza di qualche teoria direttamente, e con metodi talmente ele- mentari che la loro consistenza non potesse essere messa in dubbio. Agli albori del secolo xx, il secondo problema di Hil- bert chiese dunque di dimostrare direttamente la consi- stenza della teoria dei numeri, reali o interi. Una solu- zione completamente inaspettata fu data nel 1931 da Kurt Godei, il quale provò che la consistenza di una qualun- que teoria che contenga quella dei numeri interi non si può dimostrare all’interno della teoria stessa. In altre pa- role, nessuna teoria che pretenda di fondare la matema- tica è in grado di autogiustificarsi, ed è invece costretta a cercare la sua giustificazione al di fuori di sé. In partico- lare, nessuna teoria di tal genere che sia consistente può anche essere completa, nel senso di poter dimostrare tut- te le verità matematiche esprimibili nel suo linguaggio, e una delle verità che essa non può dimostrare è precisa- mente la propria consistenza: per questo motivo, il risul- tato di Godei viene chiamato teorema di incompletezza. L’impossibilità di provare la consistenza di una teoria dal suo interno non esclude comunque la possibilità di di- mostrazioni esterne, ma pur sempre convincenti, e non co- stituisce dunque l’ultima parola sul secondo problema di Hilbert. In particolare, una dimostrazione di consistenza significativa, benché ovviamente non elementare, della teoria dei numeri interi è stata data nel 1936 da Gerhard Gentzen: essa costituisce il punto di partenza della teoria della dimostrazione, che ha come scopo la ricerca di ana- loghe dimostrazioni per teorie sempre piu forti. 6. Calcolo variazionale: le superfici minimali di Dou- glas (1931). Secondo VEneide (I, 360-368), all’origine della fon- dazione di Cartagine sta la soluzione di un problema di natura matematica. La regina Didone, fuggita da Tiro e
48 CAPITOLO SECONDO sbarcata sulla costa nordafricana, ottenne dal re locale il permesso di scegliere un appezzamento di terra che stes- se nella pelle di un bue. Dopo aver ricavato dalla pelle una sottilissima corda, Didone la usò per delimitare la massima area possibile: la sua scelta fu un appezzamen- to semicircolare in riva al mare, cosi da dover delimitare con la corda soltanto una parte del perimetro. Didone aveva intuito che il cerchio è la figura che, a parità di pe- rimetro, ha la massima area: la prima dimostrazione ma- tematica fu data da Jacob Steiner nel 1838, e completata da Weierstrass nel 1872. Problemi di questo genere si chiamano di massimo o minimo, e in casi semplici si possono facilmente risolve- re con i metodi del calcolo infinitesimale. Più precisa- mente, esprimendoli sotto forma di funzione, e cercan- do i punti critici di questa, annullandone la derivata. In casi più complicati sono necessarie tecniche più sofisti- cate che sono state codificate nel calcolo variazionale, il cui nome deriva dal fatto che a variare è qui l’intera fun- zione (<5/) e non solo una sua parte infinitesima (<7f). Il primo problema genuinamente variazionale fu pro- posto nel 1630 da Galileo: dati due punti non in vertica- le uno sull’altro, trovare la curva (detta brachistocrona') che permette di andare da uno all’altro nel minor tempo possibile. Galileo diede una soluzione sbagliata, e cioè un arco di cerchio. Il problema fu riproposto nel 1696 da Jean Bernoulli, e risolto correttamente da Newton e Leib- niz, oltre che dai fratelli Bernoulli: la soluzione è un arco di cicloide, cioè la curva che un punto su una circonfe- renza percorre, mentre la circonferenza ruota su una ret- ta senza strisciare. In precedenza, nel secondo libro dei Principia (Scolio alla Proposizione 34), Newton aveva già trovato la prima soluzione corretta di un problema variazionale: determi- nare quale superficie di rivoluzione che si muova nel- l’acqua a velocità costante e nella direzione del suo asse, offra la minima resistenza al moto nell’acqua. Egli previ- de che la soluzione del problema poteva essere utile nel-
matematica pura 49 la costruzione delle navi, e simili problemi divennero in seguito comuni in aeronautica, nella costruzione di sot- tomarini e aeroplani. Il primo risultato fondamentale del calcolo variazio- nale fu trovato nel 1736 da Euler: egli scopri l’equazione differenziale che ancor oggi sta alla base del calcolo, e che stabilisce una condizione necessaria per la soluzione di un problema variazionale (cosi come l’annullamento del- la derivata è una condizione necessaria per la soluzione dei problemi di massimo o minimo). Nel 1744 Euler scris- se poi un intero libro, che forni il primo trattamento si- stematico dell’argomento. Già Erone di Alessandria aveva enunciato, nel primo secolo d. C., il principio che la luce si muove secondo per- corsi che minimizzano sia il tempo che lo spazio. E Leo- nardo da Vinci aveva espresso, nel secolo xv, la convin- zione che la natura fosse «economica». Queste intuizio- ni furono estese e sistematizzate nel 1744 da Pierre Louis de Maupertuis, nel principio di minima azione, i fenome- ni naturali avvengono in modo da minimizzare l’azione, cioè il prodotto mvs di massa, velocità e distanza. Benché il concetto di azione di Maupertuis fosse po- co preciso, la sua formulazione rese matematica l’intui- zione filosofica che alla base del comportamento della na- tura ci sia un principio variazionale. Euler intravide la possibilità di derivare le leggi della fisica a partire da un tale principio, ma il primo a concretizzarla fu Lagrange, nel 1761. Egli definì correttamente l’azione come mvds o mv2dt, e ricavò una versione della seconda legge del moto di Newton dal principio di minima azione. La formulazio- ne definitiva della meccanica in questa forma fu ottenu- ta da William Hamilton nel 1835: egli ottenne le classi- che equazioni differenziali che descrivono posizione e quantità di moto, in funzione dell’hamiltoniana H che rappresenta l’energia.
50 CAPITOLO SECONDO Nel 1847 il fisico Joseph Plateau notò che se si im- merge un filo a forma di curva chiusa in acqua saponata, quando lo si estrae si forma al suo interno una bolla di sa- pone che costituisce una superficie di area minima, ri- spetto al perimetro definito dalla curva. Le bolle di sa- pone forniscono dunque una soluzione empirica al pro- blema di trovare una superficie di area minima nei casi in cui la forma del filo è molto complicata, e una soluzione esplicita è difficile da trovare. Sorge allora spontaneo il problema di Plateau-, dimo- strare che per ogni curva chiusa nello spazio, esiste una superficie minimale che ha la curva come perimetro. Il problema rimane vago se non si specifica che cosa si in- tende per curva chiusa, ma dopo il 1887 si può adottare la definizione di Camille Jordan: una curva è l’insieme dei punti le cui coordinate sono immagini di funzioni conti- nue di un parametro in un certo intervallo. E il problema di Plateau si intende riferito a questa definizione. La soluzione dovette attendere quasi un secolo e fu da- ta nel 1931 da Jessie Douglas, che per questo lavoro ot- tenne la medaglia Fields nel 1936, che fu anche la prima assegnata. E lavori (anche) sulle superfici minimali per- misero a Enrico Bombieri di ottenere la medaglia Fields nel 1974 e a Ennio de Giorgi 'A premio Wolf nel 1990. Il calcolo variazionale ha dunque visto salire le sue azioni dagli inizi del secolo, quando Hilbert riteneva che non avesse ricevuto l’apprezzamento che meritava, e decise di attirare l’attenzione su di esso con il ventitreesimo pro- blema, l'unico di carattere generale della sua lista. Inol- tre, anche il ventesimo e il diciannovesimo problema ri- guardavano questioni del calcolo variazionale: più preci- samente, l’esistenza e il tipo (analitico) delle soluzioni di una vasta classe di problemi variazionali (detti regolari). Lo studio di questi problemi ha portato allo sviluppo di una vasta area dell’analisi moderna. Per ritornare a Plateau, uno dei suoi esperimenti con- sistette nell'immergere due volte nell’acqua saponata dei fili disposti a cubo: la bolla che si ottiene in questo caso
matematica PURA 51 consiste, sorprendentemente, di una specie di ipercubo, cioè di una bolla quasi cubica centrale, collegata al cubo originario da lamine piatte (figura 6). In generale, lami- ne dello stesso tipo riempiono i buchi delle superfici di area minima che si ottengono con bolle di sapone: resi- stenza di superfici di area minima con un numero arbi- trario di buchi, e dunque non ottenibili con bolle di sa- pone, è stata dimostrata nel 1987 da David Hoffman e William Meeks, appoggiandosi questa volta a rappre- sentazioni grafiche computerizzate ottenute nel 1983 (fi- gura 7). 7. Analisi: le distribuzioni di Schwartz (1945). I Greci conoscevano, ovviamente, alcune curve speci- fiche quali le sezioni coniche e varie spirali, ma non eb- bero mai la necessità di considerare la nozione di fun- zione in modo sistematico. Questa necessità sorse invece con la nascita della scienza moderna: lo studio del moto richiedeva infatti di considerare una vasta classe di cur- ve, comprendente in modo naturale la parabola, l’ellisse e la cicloide, che sono rispettivamente le traiettorie de- scritte da un proiettile, un pianeta, o un punto su una ruo- ta che rotola su un piano. Per un lungo periodo l’unico modo permesso di defi- nire funzioni fu attraverso formule, anche se la classe di queste si arricchì costantemente con lo sviluppo della ma- tematica. Nel secolo xvn Descartes richiedeva di limitarsi a equazioni algebriche, cioè a polinomi di grado arbitra- rio in x e y. Nel secolo xvm Euler, motivato dallo studio della corda vibrante, permise la considerazione di espres- sioni analitiche comprendenti funzioni trigonometriche, esponenziali e logaritmiche: egli le vedeva come versioni infinitarie di funzioni algebriche, attraverso espansioni in serie di potenze. Nel secolo xix Joseph Fourier, motiva- to a sua volta dallo studio del calore, incluse infine anche le serie trigonometriche.
CAPITOLO SECONDO Figura 6. ^apOnexÌperCublCa'(Dal fUm di Michele Emmer’ B^lle di sapone, <£>2000Emmer). Figura 7. Superficie minimale con buchi.
matematica pura 53 La tesi fondamentale di Fourier era che ogni funzione si potesse rappresentare, in un intervallo, mediante una serie trigonometrica. Fu proprio nel tentativo di dimo- strare questa tesi che Peter Lejeune Dirichelet scopri, nel 1829, un famoso esempio di funzione non rappresenta- bile: quella i cui valori sono 1 per argomenti razionali, e 0 per argomenti irrazionali. Questa funzione non era definita mediante formule di nessun genere, ma nel giro di pochi anni Dirichelet fece di necessità virtù: nel 1837 egli propose la definizione di funzione che ancor oggi viene usata, come corrispon- denza che a ciascun argomento x associa uno e un solo valore y, indipendentemente dal modo in cui questa cor- rispondenza viene definita. Il passaggio dalle funzioni definibili a quelle arbitrarie è, in un certo senso, analogo al passaggio dai numeri rea- li algebrici a quelli arbitrari: in entrambi i casi si provoca un incremento esponenziale del numero di elementi, la maggior parte dei quali sarà comunque inaccessibile alle descrizioni, proprio a causa della limitatezza numerica di queste. In pratica, però, le funzioni e i numeri di uso co- mune tendono a essere definibili in qualche modo espli- cito. Ironicamente, la stessa funzione di Dirichelet non fa eccezione, poiché Peano e René Baire hanno dimostrato che essa è rappresentabile analiticamente mediante l’e- spressione /(%) = lim limcos(w!7tx)”. m— Motivato dai suoi studi sull’elettromagnetismo, Oliver Heaviside introdusse nel 1893 la funzione impropria <5, de- finita dalle seguenti due proprietà: i suoi valori sono sem- pre 0, eccetto nel punto 0, in cui il valore è infinito; e l’a- rea definita dal grafico della curva ha valore 1. Presa di per sé la 3 è ovviamente paradossale: essa differisce soltanto in un punto dalla funzione costante 0, che ha integrale 0, e qualunque valore assegnato in quel punto non dovrebbe far cambiare il valore dell’integrale. Un solo valore, per giunta in(de)finito, contribuisce invece un’area finita.
54 CAPITOLO SECONDO Funzioni improprie come la d permettono però di esprimere derivate di funzioni discontinue. Per esempio, la <5 stessa può essere considerata la derivata della fun- zione H diHeaviside, che descrive un impulso istantaneo unitario, e vale 0 per argomenti minori di 0, e 1 altrimenti. La giustificazione di tale affermazione si ottiene median- te un procedimento al limite: la 5 è approssimata da una funzione che vale 0 quasi sempre, eccetto in un interval- lo attorno allo 0, in cui il valore è determinato dalla con- dizione che l’area totale sia appunto 1; la H è invece ap- prossimata dagli integrali delle approssimazioni della 5, che valgono appunto 0 prima dell’intervallo e 1 dopo, ma che nell’intervallo collegano questi due valori in manie- ra continua (figura 8). Le nozioni e i procedimenti euristici usati da Heavisi- de sollevarono un grande scandalo fra i benpensanti ma- tematici, ed egli fu addirittura espulso dalla RoyalSociety di Londra per indegnità teorica. Il risultato fu che oggi la <5 viene associata non al suo nome, ma a quello di Paul Dirac, che la usò nel 1930 nel suo classico I principi del- la meccanica quantistica. Anche Dirac ricevette comun- que la sua dose di severe critiche: in particolare, da John Figura 8. Approssimazioni delle funzioni II e <5.
matematica PURA 55 von Neumann, autore di una formulazione matematica alternativa della meccanica quantistica, di cui parleremo in seguito. Grazie alla reputazione di Dirac la 3 attecchì comunque immediatamente fra i fisici, e in seguito anche fra i matematici. Un’estensione del concetto di funzione che includes- se anche le funzioni improprie fu sviluppata da Laurent Schwartz a partire dal 1945, in uno studio che culminò nel 1950 nei due volumi della Teoria delle distribuzioni. Egli sviluppò in particolare le tecniche di differenziazio- ne delle distribuzioni, mostrando che ogni funzione con- tinua in senso classico è derivabile nel senso delle distri- buzioni: il che include anche casi patologici come la cur- va di Koch, di cui parleremo in seguito, e che classica- mente non ha invece derivata in alcun punto. Per questo lavoro Schwartz ottenne la medaglia Fields nel 1930. In seguito egli divenne uno dei più noti intellettuali france- si a prendere posizione contro la guerra di Algeria, e il suo appartamento fu fatto saltare da una bomba. Poiché le distribuzioni generalizzano le funzioni, cosi come i numeri reali generalizzano i numeri razionali, si oossono estendere ad esse problemi classici riguardanti e funzioni. Per esempio, il già citato diciannovesimo pro- blema di Hilbert chiedeva quali operatori differenziali su funzioni avessero solo soluzioni analitiche, e nel 1904 Ser- ge Bernstein mostrò che la risposta era: gli operatori el- littici. Nel suo libro Schwartz propose di estendere il pro- blema agli operatori differenziali su distribuzioni: la so- luzione da parte di Lars Hòrmander portò alla definizione della nuova e importante classe degli operatori ipoellitti- ci, e gli valse sia la medaglia Fields nel 1962 che il premio Wolfnel 1988. A proposito di operatori ellittici, uno dei risultati fon- damentali su di essi è il teorema dell’indice dimostrato nel 1963 da Michael Atiyah e Isadore Singer. L’indice di un operatore misura la quantità delle sue soluzioni, e si ot- tiene sottraendo i numeri che determinano l’esistenza e l’unicità delle soluzioni (il primo numero è la dimensio-
56 CAPITOLO SECONDO ne del sistema di relazioni lineari che una soluzione deve soddisfare, il secondo è la dimensione dello spazio di tut- te le soluzioni). L’enunciato del teorema stabilisce che l’indice è in realtà un invariante topologico, cioè non cam- bia se si perturba lo spazio su cui l’operatore è definito: il che permette da un lato di calcolare l’indice in manie- ra alternativa, e dall’altro lato getta un fecondo ponte tra l’analisi e la topologia. La complicata dimostrazione ori- ginaria richiedeva l’uso delle tecniche più svariate, dalla teoria del cobordismo di Thom a cui accenneremo in se- guito, alla K-teoria sviluppata in precedenza dallo stesso Atiyah, che per tutti questi lavori ottenne la medaglia Fields nel 1966. Più recentemente il teorema dell’indice è stato reinterpretato in termini di meccanica quantisti- ca, e la teoria delle stringhe a cui accenneremo in segui- to ha permesso a Edward Witten di fornirne una dimo- strazione più semplice e comprensibile, ottenendo anche per questo la medaglia Fields nel 1990. 8. Topologia differenziale: le strutture esotiche di Mil- nor (1966). Il fatto che la terra abbia potuto a lungo essere consi- derata piatta, e che tale continui ad apparire quando si considerino soltanto zone sufficientemente ristrette, mo- stra che una superficie come la sfera può essere local- mente euclidea, pur non essendolo globalmente (tecni- camente si dice che la sfera è localmente diffeomorfa, benché non localmente isometrica, al piano). Una sfera si può dunque considerare come una palla di pezza, costituita da un gran numero di piccolissime toppe praticamente piatte, sovrapponentisi l’una all’altra in maniera uniforme e regolare. E la struttura dell’intera palla si può ridurre alla struttura delle singole toppe da un lato, e alla loro posizione rispetto a un sistema di rife- rimento canonico, quale il reticolo dei meridiani e dei pa- ralleli, dall’altro. Questo modo di concepire le cose per-
matematica pura 57 mette di estendere alla sfera il calcolo differenziale, cioè l’intero armamentario di derivate e integrali, che è stato originariamente concepito e sviluppato per il piano eu- clideo. Nel 1854 Bernhard Riemann introdusse una nozione di varietà diRiemann a n dimensioni, che generalizza l’ap- proccio precedente: si mettono cioè insieme, in maniera uniforme e regolare, piccolissimi pezzi dello spazio eu- clideo a n dimensioni. Una tale varietà ammette una strut- tura differenziale quando è possibile estendere a essa il calcolo differenziale solito, dello spazio a n dimensioni, in maniera analoga a quanto accennato per la sfera. I lavori di Kerékjàrtó nel 1923, Rado nel 1925 e Moi- se nel 1952 portarono nel loro complesso alla dimostra- zione che tutte le varietà di Riemann bidimensionali o tri- dimensionali, cosi come tutti gli spazi euclidei di di- mensione diversa da 4, ammettono un’unica struttura differenziale. E si pensava che cosi dovesse essere in ge- nerale. Nel 1956 John Milnor mostrò però che la sfera a 7 di- mensioni ammette più di una struttura differenziale: per la precisione, ventotto. Per questo inaspettato risultato, che inaugurò la nuova area della topologia differenziale e delle cosiddette strutture esotiche, Milnor ricevette la me- daglia Fields nel 1962 e il premio Wolfnel 1989. Nel 1969 Michel Kervaire mostrò invece che esistono varietà a 10 dimensioni che non ammettono nessuna struttura diffe- renziale: insieme al risultato di Milnor, questo prova che né l’esistenza, né l’unicità di una struttura differenziale so- no dunque assicurate, in generale. Una classificazione delle varietà differenziabili di di- mensione maggiore o uguale a 5 è stata trovata nel 1962 da Sergei Novikov, che ottenne per questo lavoro la me- daglia Fields nel 1970. Gli sviluppi recenti della topolo- gia differenziale riguardano dunque la dimensione 4, che è l’unico caso in cui il gruppo delle rotazioni dello spazio euclideo non è semplice (essendo il prodotto di due co- pie del gruppo di rotazione tridimensionale). I lavori fon-
58 CAPITOLO SECONDO dementali in questo campo sono di Michael Freedman e Simon Donaldson, che hanno ottenuto per essi la meda- glia Fields nel 1986. Da un lato, nel 1982 Freedman ha mostrato che a ogni varietà quadridimensionale si può associare una matrice intera simmetrica a determinante uguale a ± 1, definita in base alle proprietà di intersezione della varietà. Vicever- sa, ciascuna matrice di questo genere corrisponde a una varietà. In altre parole, queste matrici definiscono un in- variante topologico che permette di classificare le varietà quadridimensionali. Poiché già nel 1952 Rokhlin aveva mostrato che non tutte le matrici possono corrispondere a varietà differenziabili, il risultato di Freedman prova l’esistenza di varietà quadridimensionali che non am- mettono nessuna struttura differenziale. Dall’altro lato, nel 1983 Donaldson ha provato che le sole matrici corrispondenti a varietà differenziabili sono quelle unitarie. Egli ha inoltre trovato altri invarianti, che permettono di distinguere fra loro varietà differenziabi- i che sono topologicamente equivalenti, dimostrando in particolare l’esistenza di strutture esotiche dello spazio euclideo quadridimensionale, in cui possono succedere cose strane: per esempio, diversamente dallo spazio tri- dimensionale, in cui ogni zona chiusa e limitata è conte- nuta in una sfera, ci sono zone chiuse e limitate che non sono contenute in ipersfere. Taubes e Gompf hanno poi dimostrato nel 1985 che di strutture esotiche lo spazio euclideo quadridimensionale ne ammette non solo infi- nite, ma addirittura una quantità continua. Un aspetto interessante dei lavori di Donaldson è che essi usano metodi fisici per ottenere risultati matematici, e hanno inaugurato una tendenza che ha raggiunto l’api- ce nei lavori di Edward Witten a cui accenneremo in se- guito. Sostanzialmente, Donaldson rimpiazza le equazio- ni di Maxwell e il gruppo U(l) tipici dell'elettromagneti- smo con le equazioni di Yang-Mills e il gruppo SU(2) tipici della teoria elettrodebole, di cui parleremo, e usa le solu- zioni minimali (dette istantom} come strumenti geometri-
MATEMATICA PURA 59 ci. Il che lascia intravedere la possibilità di ottenere altri risultati usando analogamente le stesse equazioni ma altri gruppi, per esempio l’SU(3) tipico della cromodinamica. Tornando alla topologia differenziale, un problema an- cora aperto è se la sfera a 4 dimensioni ammetta più di una struttura differenziale. Se la risposta fosse negativa, allora il teorema di Milnor sulla sfera a 7 dimensioni sa- rebbe il migliore possibile: si sa già, infatti, che le sfere a 2, 3,5 e 6 dimensioni hanno una sola struttura differen- ziale. In ogni caso, il numero delle strutture differenziali della sfera dipende fortemente dal numero di dimensio- ni, benché sia sempre finito nel caso diverso da 4: per esempio, in 8 dimensioni ce ne sono 2, in 11 dimensioni 992, in 12 dimensioni 1, in 15 dimensioni 16256, in 31 dimensioni più di sedici milioni,... 9. Teoria dei modelli: i numeri iperreali di Robinson (1961). La prima apparizione esplicita degli infinitesimi'^ ma- tematica si ebbe nel secolo xv, quando Nicola Cusano definì il cerchio come un poligono di infiniti lati aventi lunghezza infinitesima, e dedusse il teorema di Archime- de sull’area del cerchio in due parole: si scompone il cer- chio in infiniti triangoli di base infinitesima e altezza uguale al raggio; poiché l’area di ciascun triangolo è ba- se per altezza diviso 2, l’area del cerchio sarà allora la cir- conferenza (cioè la somma delle basi dei triangoli) per il raggio diviso 2. Il problema di questo approccio risiede, naturalmen- te, nel concetto di triangolo infinitesimo: se la sua area è nulla, allora anche il cerchio dovrebbe avere area nulla; se invece la sua area non è nulla, allora il cerchio dovrebbe avere area infinita; in nessuno dei due casi, si avrebbe però il risultato corretto. Nel 1629 Pierre de Fermat utilizzò gli infinitesimi nel- la definizione di derivata, da lui introdotta come (misu-
6o CAPITOLO SECONDO ra dell’inclinazione della) tangente a una curva in un pun- to. Egli considerò una secante passante per due punti: il punto dato, e un altro punto distante da esso un infinite- simo h. E calcolò la tangente (trigonometrica) della tan- gente (geometrica) come rapporto incrementale, in ma- niera simile a quella odierna. Per esempio, nel caso di una parabola: (x + hf-x2 2xh + h2 _ , - ------------=----------= 2x + h = 2x. b b Qui h viene considerato diverso da 0 quando lo si sem- plifica come divisore, ma uguale a 0 quando poi lo si eli- mina alla fine: un procedimento che non poteva non sol- levare seri dubbi sulla sua consistenza. Nel 1635 Bonaventura Cavalieri utilizzò gli infinitesi- mi nella definizione di integrale, da lui introdotta per cal- colare aree e volumi. Sulla scia di Cusano, egli considerò le figure geometriche come composte di infiniti indivi- sibili-. le curve di punti, come «le perle di una collana»; le superfici di segmenti paralleli, come «i fili di una te- la»; e i solidi di superfici parallele, come «le pagine di un libro». A differenza di perle, fili e pagine, le dimen- sioni di questi indivisibili erano però ancora una volta infinitesime. Se Leibniz e Newton portarono a maturità le idee in- trodotte da Fermat e Cavalieri, sviluppando una vera e propria nuova metodologia per la soluzione di problemi matematici e fisici, essi non seppero però fare molto per rispondere alle obiezioni sollevate dall’uso di «fantasmi di quantità decedute», come li chiamò il vescovo Berke- ley in una sua spietata critica. In particolare, Leibniz fondò l’intero calcolo sulla no- zione di infinitesimo, che egli vedeva come una quantità evanescente, ma non svanita (oggi diremmo, più sempli- cemente, non archimedea): ossia, più piccola di ogni fra- zione -ì, ma non nulla. E tracce del suo approccio ri- mangono ancor oggi, sia nel nome di calcolo infinitesi-
matematica pura male dato alla nuova disciplina, che nelle notazioni da lui inventate per derivate e integrali: dj\x} dx e f(x)dx. La derivata viene cioè rappresentata come rapporto di due infinitesimi (d è l’iniziale di «differenza»), e l’inte- grale come somma di indivisibili di larghezza infinitesi- ma (il simbolo J è la stilizzazione di S, che è l’iniziale di «somma»). L’uso simmetrico di d e J richiama poi il teo- rema fondamentale di Newton e Leibniz, secondo cui de- rivate e integrali sono operazioni inverse, appunto come differenza e somma. Se l’approccio di Leibniz al calcolo attraverso gli infi- nitesimi rifletteva la sua preoccupazione principale, che era filosofica e legata alle costituenti ultime della realtà (le monadi), quello di Newton rifletteva invece le appli- cazioni fondamentali che egli aveva in mente, che erano fisiche e legate alla misura del cambiamento (la velocità). A differenza di Cavalieri, Newton vedeva le figure geo- metriche come generate da moti continui: le curve da punti, le superfici da segmenti, i solidi da superfici. La derivata era per lui non il rapporto statico di due infi- nitesimi, ma la «flussione» dinamica di una quantità «fluente». E nei Principia egli dichiarò esplicitamente: I rapporti finali in cui certe quantità svaniscono non sono, stret- tamente parlando, rapporti di quantità finali, ma limiti a cui ta- li rapporti si avvicinano, diminuendo senza fine. Questa idea fu ripresa nel 1821 da Augustin Cauchy, che fondò sul concetto di limite l’intero calcolo. Nella sua formulazione, che è quella odierna, l’esempio di Fermat diventa: lim(2x + A) = 2x. In tal modo la semplificazione del numero h è giustifica- ta dal fatto che esso è una quantità diversa da 0, mentre
CAPITOLO SECONDO 62 la sua eliminazione viene sostituita con un limite in cui b tende a 0, senza che si richieda mai di considerarlo ugua- le a 0. In altre parole, gli infinitesimi sono variabili e non costanti. La definizione precisa di limite fu poi data da Karl Weierstrass nel 1859, nei termini oggi usuali di «e-3», e su tali basi la sistematizzazione dell’analisi potè consi- derarsi conclusa. Essa non aveva però spiegato gli infini- tesimi: si era limitata a rimuoverli, al prezzo di una non indifferente complicazione dei fondamenti del calcolo. La riabilitazione degli infinitesimi avvenne nel 1961, quando Abraham Robinson mostrò che i metodi della lo- gica matematica, in particolare il cosiddetto teorema di compattezza, permettono di trovare una classe di nume- ri iperreali che hanno le stesse proprietà dei numeri rea- li, ma contengono, oltre ai numeri reali soliti, anche le lo- ro varianti infinitesime (in modo analogo a quello in cui i numeri reali contengono, oltre ai numeri interi, anche le loro varianti decimali). Lanalisi classica sui numeri reali si può estendere a una analisi non-standard sui numeri iperreali, nel cui ambito il calcolo dell’esempio di Fermat diventa perfettamente corretto: b è effettivamente diverso da 0, e si può quindi dividere per esso; e benché 2x + h e 2x siano numeri iper- reali diversi, essi hanno la stessa parte reale (cosi come due numeri decimali possono essere diversi, ma avere la stessa parte intera), e sono quindi uguali dal punto di vi- sta dei numeri reali. I numeri reali si possono vedere come un completa- mento dei numeri razionali, ottenuto col passaggio da numeri il cui sviluppo decimale è finito o periodico, a nu- meri il cui sviluppo è infinito. Analogamente, i numeri iperreali si possono vedere come un completamento dei numeri reali, ottenuto col passaggio a numeri il cui svi- luppo è doppiamente infinito. Il che fa immediatamente pensare a ulteriori comple- tamenti, con numeri il cui sviluppo decimale sia sempre più lungo. Nel 1976 John Conway ha introdotto i nume-
matematica pura 63 ri surreali, il cui sviluppo decimale si estende per tutti gli infiniti introdotti da Cantor, di cui parleremo tra poco: si ottiene cosi, in un senso preciso, il massimo completa- mento possibile dei numeri reali. 10. Teoria degli insiemi: il teorema di in dipendenza di Cohen (1963). Il primo problema di Hilbert, quello dunque che egli considerava il piu importante, chiedeva semplicemente quanti fossero i numeri reali. Naturalmente, da un pun- to di vista intuitivo la risposta alla domanda di Hilbert è ovvia: i numeri reali sono infiniti. Cantor aveva però mostrato che non si può semplice- mente parlare di «infinito», come se questo fosse un con- cetto ben definito: non solo esistono infatti parecchi tipi di infiniti, ma ne esistono addirittura infiniti! Per dare un senso alla pluralità di infiniti, egli aveva riscoperto un ap- proccio astratto per paragonare il numero di elementi di due insiemi qualunque già usato nel 1851 da Bernhard Bolzano, e anticipato da Duns Scoto nel secolo xm e da Galileo nel 1638. L’idea è che due insiemi hanno lo stesso numero di ele- menti se si possono mettere in corrispondenza biunivo- ca: se è cioè possibile accoppiare elementi dell’uno a ele- menti dell’altro, in modo tale che tutti gli elementi di cia- scun insieme abbiano uno e un solo partner. Per esempio, le classi delle sedie e delle persone che stanno in una stan- za hanno lo stesso numero di elementi se nessuna sedia è vuota e ogni persona è seduta, occupa un solo posto e non lo condivide. E un insieme ha un numero di elementi minore di un altro se il primo si può mettere in corrispondenza biuni- voca con una parte del secondo, ma il secondo non si può mettere in corrispondenza biunivoca con il primo. Per esempio, una coppia ha un numero di elementi minore di una terna, una terna di una quaterna, una quaterna di
Ó4 CAPITOLO SECONDO una cinquina, e cosi via. In questo modo si possono fa- cilmente distinguere fra loro gli insiemi finiti che hanno un diverso numero di elementi, cosi come gli insiemi fi- niti da quelli infiniti. E però naturale pensare che, per quanto riguarda gli insiemi infiniti, essi risultino essere tutti equivalenti, e i primi risultati di Cantor andarono appunto in questa di- rezione. Per esempio, egli mostrò che i numeri interi po- sitivi e negativi si possono mettere in corrispondenza biu- nivoca con i soli numeri interi positivi, ordinandoli nel seguente modo: 0,1,-1,2,-2,3,-3,... Analogamente, come aveva già notato John Farey nel 1816, i numeri razionali (positivi) si possono mettere in corrispondenza biunivoca con i numeri interi (positivi), ordinandoli in base alla somma di numeratore e deno- minatore nel seguente modo: 1 12 123 J 2 3 4 1’ 2’1’ 3’2’1’ 4’3’2’1’"' (le ripetizioni si possono facilmente eliminare, volendo). Nel 1874 Cantor scopri invece che non è possibile met- tere in corrispondenza biunivoca i numeri reali con i nu- meri interi: qualunque lista di numeri reali deve essere incompleta, perché non contiene i numeri reali che ab- biano la prima cifra decimale diversa dalla prima cifra de- cimale del primo numero nella lista, la seconda cifra di- versa dalla seconda cifra del secondo numero, e cosi via. Dunque i numeri reali sono più che i numeri interi, e con una dimostrazione analoga alla precedente, detta meto- do diagonale, Cantor mostrò nel 1891 che per ogni insie- me infinito se ne può trovare un altro che ha un numero di elementi maggiore. Poiché si può dimostrare che l’infinito dei numeri in- teri è il più piccolo possibile, l’infinito dei numeri reali è maggiore di esso. La domanda naturale è se esso sia l’in- finito che viene subito dopo, o se invece ce ne siano altri
matematica pura 65 in mezzo: in altre parole, se esistano sottoinsiemi eli nu- meri reali che abbiano piu elementi dei numeri interi, ma meno dei numeri reali stessi. Nel 1883 Cantor congetturò di no, e questa affermazione divenne nota come ipotesi del continuo («continuo» è il nome con cui a volte si in- dica l’insieme dei numeri reali). Il primo risultato sul problema fu ottenuto nel 1938 da Kurt Godei. Sulla base del motto di Wittgenstein, che «su ciò di cui non si può parlare si deve tacere», egli de- cise di restringere l’attenzione agli insiemi costruibili, gli unici di cui si può parlare in un preciso linguaggio ge- rarchizzato. La scoperta di Godei fu che gli insiemi co- struibili costituiscono un universo che soddisfa tutti gli assiomi di Zermelo e Fraenkel, e anche l’ipotesi del con- tinuo: il che significa che la negazione di questa non si può derivare dagli assiomi, a meno che essi non siano con- traddittori. In altre parole, l’ipotesi del continuo è consi- stente con la teoria degli insiemi, nel senso che non può essere refutata. Un risultato complementare a quello di Godei fu ot- tenuto nel 1963 da Paul Cohen. Egli decise questa volta di allargare l’attenzione a insiemi generici, che soddisfa- no tutte le proprietà tipiche della teoria degli insiemi. La scoperta di Cohen fu che l’aggiunta di insiemi generici agli insiemi costruibili genera universi che soddisfano tut- ti gli assiomi di Zermelo e Fraenkel e, in alcuni casi, an- che la negazione dell’ipotesi del continuo: il che signifi- ca che questa non si può derivare dagli assiomi, a meno che essi non siano contraddittori. In altre parole, l’ipote- si del continuo è indipendente dalla teoria degli insiemi, nel senso che non può essere né provata né, come aveva già mostrato Godei, refutata. Per questo risultato Cohen ottenne la medaglia Fields nel 1966. Il primo problema di Hilbert è dunque risolto, e la so- luzione è che esso non si può risolvere con le nozioni di teoria degli insiemi che sono oggi di uso comune. Il che non significa, ovviamente, che non possano un domani emergere estensioni di queste nozioni che appaiano al-
66 CAPITOLO SECONDO trettanto naturali, e che permettano però di decidere l’i- potesi del continuo in un senso o nell’altro. Per ora ci si deve accontentare di separare i risultati provati in teoria degli insiemi usando l’ipotesi del continuo (o la sua ne- gazione), da quelli che invece ne fanno a meno. 11. Teoria delle singolarità: la classificazione delle ca- tastrofi di Thom (1964). Il modo più semplice di descrivere analiticamente cur- ve nel piano è mediante polinomi in x e y, che definisco- no le cosiddette curve algebriche. Descartes scoprì nel 1637 che i polinomi di primo grado descrivono le rette, e quelli di secondo grado le sezioni coniche già studiate dai Greci, cioè iperbole, ellisse e parabola: il loro nome deriva dal fatto che esse si possono ottenere tutte per proiezione e sezione di un cerchio, nel senso che proiet- tando il cerchio da un punto si ottiene un cono, e sezio- nando il cono si ottengono le sezioni coniche. I polinomi di terzo grado definiscono le cubiche, il cui studio potè invece essere intrapreso soltanto con i nuovi metodi del calcolo infinitesimale. Newton scoprì nel 1676 che i tipi di cubiche sono un’ottantina, e si possono otte- nere tutti per proiezioni e sezioni delle curve ellittiche, co- sì chiamate a causa del loro ruolo nel calcolo della lun- ghezza di archi di ellisse (una ellisse non è una curva el- littica), e la cui forma generale è y2 = ax9 + bxb + ex 4- d. La cosa è interessante perché le curve ellittiche sono invece soltanto di cinque possibili tipi, classificati in ba- se ai possibili zeri del polinomio di terzo grado a destra dell’uguale (figura 9). Più precisamente, quattro casi si ottengono quando i tre zeri sono tutti reali: se essi sono tutti distinti, la curva è fatta di due pezzi, di cui uno chiuso; se due zeri coinci- dono, essi possono essere minori del rimanente, nel qual
MATEMATICA PURA 67 Figura 9. Classificazione delle curve ellittiche.
68 CAPITOLO SECONDO caso costituiscono un punto isolato, o maggiori, nel qual caso formano un nodo; se i tre zeri sono tutti coin- cidenti, si ha una cuspide. Il quinto caso si ottiene quan- do ci sono zeri complessi, che devono essere due e di- stinti, perché un polinomio di terzo grado a coefficienti reali ha sempre uno zero reale, e gli zeri complessi ven- gono sempre a coppie: la curva è allora fatta soltanto di un pezzo liscio. In ciascun punto di una sezione conica la tangente è uni- ca e la curva sta da una sola parte di essa, ma per curve più complesse queste proprietà possono non valere: quando questo accade, ci si trova di fronte a punti singolari. Essi sono già esibiti dalle curve ellittiche: nei nodi e nelle cu- spidi ci sono due tangenti, nel primo caso distinte e nel se- condo coincidenti; nei flessi la curva passa da una parte al- l’altra della tangente, cambiando concavità. Nel 1740 l’a- bate Jean Paul de Gua de Malves provò che, in generale, i punti singolari delle curve algebriche si ottengono tutti componendo nodi, cuspidi e flessi, in vari modi. Lo studio delle curve non algebriche è più difficile, e scopo della teoria delle singolarità è dedurre il compor- tamento globale della curva a partire dalla conoscenza lo- cale dei suoi punti singolari. Più in generale, si tratta di classificare famiglie di curve o superfici riducendole a un ristretto numero di tipi determinati dalle loro singolarità, in maniera analoga alla classificazione delle cubiche vista sopra. La nozione di derivata permise immediatamente, a Fermat nel 1638 e Newton nel 1665, di studiare le curve lisce, che hanno cioè derivata in ogni punto, e i cui pun- ti singolari sono quelli in cui la derivata prima è nulla. Le curve lisce sono riducibili, mediante deformazioni loca- li, alle curve lisce che hanno al più punti singolari rego- lari, in cui cioè la derivata seconda non è nulla: in tali pun- ti la curva è approssimata da un monomio di secondo gra- do, cioè da una parabola; e a seconda che il segno sia positivo o negativo, la parabola è rivolta all’insù o all’in- giù, e dunque il punto singolare è un minimo o un mas-
matematica pura 69 simo. Per esempio, la cubica x5 ha un punto singolare non regolare, cioè un flesso, nell’origine, dove la tangente è orizzontale: ma una minima rotazione della tangente è sufficiente a trasformarla in una curva del tipo x? + x, sen- za punti singolari, o in una del tipo x3-x, con un massi- mo e un minimo (figura 10). Un’estensione dei risultati precedenti, dalle curve alle superfici a n dimensioni, fu effettuata nel 1934 da Mar- ston Morse. Egli provò che le superfici lisce sono riduci- bili, mediante deformazioni locali dette diffeomorfismi, a superfici lisce che hanno al piu punti singolari regola- ri: in tali punti la superficie è approssimata da una som- ma algebrica di monomi di secondo grado in ciascuna va- riabile, cioè da una superficie a sella, il cui tipo è deter- minato dal numero di monomi con segno positivo o negativo, cioè dal numero di direzioni in cui la sella è ri- volta all’insù o all’ingiù. Il teorema di Morse caratterizza completamente i pun- ti singolari regolari, e lascia dunque aperto il problema della caratterizzazione di quelli non regolari: questi ul- timi vengono detti catastrofi, perché corrispondono a biforcazioni radicali nel comportamento del sistema, e lo studio delle superfici con punti singolari non regolari è Figura 10.
7° CAPITOLO SECONDO l’oggetto della teoria delle catastrofi, sviluppata da René Thom. Nel caso delle curve lisce le uniche catastrofi sono i flessi, in cui la curva è piatta perché attraversa la tangen- te orizzontale. Nel caso delle superfici a n dimensioni ci sono diverse possibilità, a seconda del numero di dire- zioni in cui la curva è piatta, detto corango, e del minimo numero di deformazioni necessarie per eliminare le irre- golarità, detto co dimensione-, per esempio, la cubica x3 considerata sopra ha ovviamente corango 1, e ha anche codimensione 1, perché è sufficiente aggiungerle un so- lo termine per eliminarne il flesso. Traendo ispirazione da un lavoro sulle cuspidi del 1947 di Hassler Withney, premio Wolfnel 1982, nel 1964 Thom congetturò che co- rango e codimensione sono sufficienti a classificare le catastrofi. Più precisamente, che nel caso in cui la co- dimensione sia minore o uguale di 4 le catastrofi sono sol- tanto di sette tipi: quattro di corango 1, e cioè pieghe, cu- spidi, code di rondine e farfalle; e tre di corango 2, e cioè piramidi, portafogli e funghi (figura 11). Nel caso di co- Figura 11. Classificazione delle catastrofi. ombelico ellittico (piramide) ombelico iperbolico (portafoglio) ombelico parabolico (fungo)
matematica PURA 71 dimensione maggiore, le catastrofi diventano invece in- finite. La congettura di Thom è stata provata da John Mather nel 1966. L’interesse della teoria delle catastrofi sta nel fatto che essa fu uno dei primi strumenti matematici che sembra- rono adatti a porre ordine nel caos, e descrivere regola- rità del comportamento irregolare. Nel 1972 lo stesso Thom ne inaugurò, nell’influente libro Stabilità struttu- rale e morfogenesi, le applicazioni allo studio dei feno- meni piu disparati, dalla formazione degli embrioni allo scoppio delle rivoluzioni, che furono poi spinte all’estre- mo da Christopher Zeeman. Da questo punto di vista applicativo la teoria delle ca- tastrofi è stata oggi duplicemente sorpassata. Dapprima dalla teoria delle strutture dissipative e dalla termodina- mica dei fenomeni irreversibili di Ilya Prigogine, che gli valsero il premio Nobel per la chimica nel 1977. E poi dal- la teoria del caos e della dinamica dei sistemi instabili, delle quali parleremo in seguito. 12. Algebra: la classificazione dei gruppi finiti di Go- renstein (1972). E noto dai tempi dei Babilonesi che esiste una sempli- ce formula algebrica che permette di calcolare le solu- zioni di qualunque equazione di secondo grado ax2+bx + c=Q, e precisamente: 2a Formule algebriche che permettono di calcolare le so- luzioni di qualunque equazione di terzo o quarto grado furono trovate nel secolo xvi da vari matematici italiani, fra i quali Niccolò Fontana (detto Tartaglia), Gerolamo
72 CAPITOLO SECONDO Cardano e Ludovico Ferrari. Ma Paolo Ruffini nel 1799 e Niels Abel nel 1824 dimostrarono che non esistono for- mule algebriche che permettano di calcolare le soluzioni di qualunque equazione di quinto grado. Nel 1832 Evariste Galois risolse il problema generale di decidere quali equazioni si possano risolvere median- te formule algebriche. Per formulare la sua teoria, Galois introdusse il concetto di gruppo di permutazioni delle so- luzioni, intendendo per permutazione di un insieme di elementi semplicemente un modo di ridisporli: per esem- pio, 2-3-1 è il risultato di una permutazione di 1-2-3. Nel 1849 Auguste Bravais, studiando problemi di cri- stallografia, introdusse il concetto analogo di gruppo di simmetria. Questa volta si considerano le trasformazioni geometriche che lasciano invariata una figura rispetto a certi criteri: per esempio, le simmetrie di rotazione di un poligono regolare nel piano, o di un poliedro regolare nel- . o spazio. Gruppi di simmetria particolarmente interes- santi sono quelli relativi alle rotazioni del cerchio o della sfera, che sono infinite (perché l’angolo di rotazione può essere qualunque): in questo caso si ottengono esempi dei gruppi diLie che considereremo fra poco. Come già gli esempi precedenti mostrano, gruppi di varia natura appaiono naturalmente in varie aree della matematica, e nel 1849 Arthur Cayley introdusse il con- cetto di gruppo astratto, costituito da un insieme di ele- menti e da una operazione tali che: primo, l’applicazio- ne ripetuta dell’operazione a elementi dell’insieme pro- duce ancora elementi dell’insieme; secondo, esiste un elemento detto «neutro», che svolge rispetto all’opera- zione lo stesso ruolo che 0 o 1 svolgono rispetto alla som- ma o al prodotto; terzo, l’operazione si può «invertire», nello stesso senso in cui la sottrazione o la divisione in- vertono la somma o il prodotto; quarto, l’operazione è associativa, nello stesso senso in cui lo sono somma o prodotto, cioè a + (b + c') = (a + b} +c e a (b • c) = (a • b} • c.
matematica pura 73 Non si richiede in generale che l’operazione sia anche commutativa, nel senso in cui lo sono somma e prodot- to, cioè a+b-b+a e a- b = b-a, ma nel caso che essa lo sia si ha un gruppo abeliano. La generalità del concetto di gruppo ne rende, a un tempo, facile l’applicabilità ma difficile la caratterizza- zione. Una semplificazione essenziale, compiuta da Ga- lois, consiste nel definire la classe dei gruppi semplici, che sono i costituenti elementari dei gruppi nello stesso sen- so in cui i numeri primi lo sono per gli interi: si introdu- ce cioè un’operazione di fattorizzazione di gruppi, e i gruppi semplici sono quelli che ammettono come fattori soltanto se stessi o il gruppo unitario (costituito di un so- lo elemento). Il problema della classificazione dei gruppi si riduce dunque a quello della classificazione dei grup- pi semplici. Il primo passo fu la classificazione dei gruppi continui di trasformazioni introdotti nel 1874 da Sophus Lie, e chiamati gruppi di Lie in suo onore. Essi possono essere definiti come quei gruppi che ammettono un sistema di coordinate locali rispetto al quale le operazioni di grup- po risultano analitiche. La teoria dei gruppi di Lie, che coinvolge già dalla sua definizione l’algebra, la topologia e l’analisi, è stata ed è fonte di problemi profondi e diffi- cili. Uno di questi, il quinto problema di Hilbert, chiede- va se ogni gruppo localmente euclideo (che ammette cioè un sistema di coordinate locali) fosse un gruppo di Lie, e fu risolto affermativamente nel 1952 da Gleason, Mont- gomery e Zippin. Benché un gruppo di Lie sia infinito, è possibile indi- viduarne gli elementi specificando soltanto un numero finito di parametri, che si chiama dimensione del gruppo. Per esempio, il gruppo delle rotazioni del cerchio, che viene indicato sia con Ufi? che con SO(2), ha dimensio- ne 1 perché basta specificare l’angolo di rotazione. Il gruppo delle rotazioni della sfera, che viene indicato con SO(3), ha invece dimensione 3 perché bisogna specifica-
74 CAPITOLO SECONDO re sia l’asse di rotazione (che può venire identificato da latitudine e longitudine) che l’angolo di rotazione. La classificazione dei gruppi semplici di Lie fu abboz- zata da Wilhelm Killing nel 1888 e perfezionata da Elie Cartan nel 1894. Si scoprì anzitutto che ci sono quattro famiglie infinite, costituite tutte da gruppi i cui elementi sono matrici a n righe e n colonne, e che si distinguono in base alle proprietà di queste: per esempio, SO(n) e SU(n) sono, rispettivamente, i gruppi formati dalle ma- trici Speciali Ortogonali e dalle matrici Speciali Unitarie1 il. Inoltre, ci sono cinque gruppi sporadici, che non rientra- no in nessuna delle quattro famiglie, e costituiscono ec- cezioni chiamate G2, D4, E6, E7 ed E8, aventi rispettiva- mente dimensione 14,52, 78, 133 e 248. La teoria dei gruppi di Lie è oggi il linguaggio che per- mette di esprimere le teorie unificate di campo della fisi- ca delle particelle. Più precisamente, si è scoperto che le forze elettromagnetica, nucleare debole e nucleare forte rispettano particolari simmetrie di rotazione di fase dei campi, di scambio di carica delle particelle e di scambio di colori dei quark, e che le proprietà di queste simmetrie sono descritte dai gruppi di Lie U(l), SU(2) e SUO). Le rispettive dimensioni di questi gruppi sono 1,3 e 8, e cor- rispondono al numero di bosoni che trasmettono le tre forze: 1 fotone, 3 bosoni deboli e 8 gluoni. Il primo tentativo di descrizione matematica di que- ste simmetrie fu effettuato da Chen Ning Yang e Robert Mills nel 1954, che usarono il gruppo SU(2) per la de- scrizione di alcune simmetrie delle interazioni forti (in- vece che deboli), fornendo il primo esempio di quelle che oggi si chiamano equazioni di Yang-Mills. Il secon- do tentativo fu effettuato da Murray Gell-Mann nel 1961, 11 nomi derivano dal fatto che le trasformazioni lineari determinate da ma- trici unitarie preservano l’unità di lunghezza, cioè la distanza, mentre quelle determinate da matrici ortogonali preservano anche l’ortogonalità. Tecnica- mente, una matrice è speciale se il suo determinante è uguale a 1, ortogonale se il prodotto con la sua trasposta è l’identità, e unitaria se il prodotto con la sua trasposta coniugata è l’identità.
matematica pura 75 che usò il gruppo SU(3) per la descrizione delle simme- trie dei sapori (invece che dei colori) dei quark, otte- nendo per questo il premio 'Nobel per la fisica del 1969. L'identificazione nel 1968 di U(l) x SU(2) come gruppo caratteristico della teoria elettrodebole da parte di Shel- don Glashow, Abdus Salam e Steven Weinberg ha frut- tato loro il premio Nobel per la fisica del 1979. Infine, SU (3) è stato identificato nel 1973 da Weinberg, David Gross e Frank Wilczek come il gruppo caratteristico del- la cromodinamica. Il progresso verso l’unificazione finale delle forze fisi- che passa dunque attraverso la determinazione di un ap- propriato gruppo di Lie che contenga il prodotto U(l) x SU(2) x SU(3). Il minimo gruppo semplice di Lie che sod- disfa matematicamente al requisito è SU(5), a 24 dimen- sioni, ma non sembra appropriato fisicamente: la grande unificazione basata su di esso prevede infatti fenomeni dubbi quali una decadenza troppo veloce del protone e l’esistenza di monopoli magnetici. Il gruppo su cui oggi si punta per la cosiddetta teoria del tutto, che compren- da anche la gravità, è invece una doppia coppia del mas- simo gruppo sporadico E8: avendo dimensione doppia di 248, esso prevede l’esistenza di 496 bosoni di campo, di cui però si conoscono attualmente soltanto i 12 già citati. Per quanto riguarda la classificazione dei gruppi sem- plici finiti, le cose risultano più complicate che nei grup- pi di Lie. Alla fine del secolo xix si conoscevano sei fa- miglie infinite, e cinque gruppi sporadici scoperti nel 1861 da Emile Mathieu nello studio di geometrie finite, il più grande dei quali aveva circa 250000 000 di ele- menti. Delle sei famiglie, quattro erano gli analoghi delle fa- miglie di gruppi di Lie. La quinta famiglia era quella dei gruppi ciclici, cioè gli interi modulo n, di cui abbiamo già parlato: i gruppi ciclici semplici sono esattamente quelli che hanno un numero primo di elementi. La sesta famiglia era quella dei gruppi alterni, definiti da Galois. L’osservazione di partenza è che ogni permu-
76 CAPITOLO SECONDO tazione si può in realtà ottenere mediante successivi scambi di elementi consecutivi: per esempio, la permu- tazione 2-3-1 si può ottenere da 1-2-3 scambiando fra lo- ro dapprima i primi due elementi (2-1-3), e poi gli ultimi due (2-3-1). I gruppi alterni sono costituiti dalle permu- tazioni che si ottengono mediante un numero pari di suc- cessivi scambi di elementi, come nell’esempio appena da- to. E i gruppi alterni ottenuti dalle permutazioni su in- siemi con un numero di elementi maggiore di 4 sono tutti semplici (Galois mostrò che proprio questo fatto de- termina l’impossibilità di trovare formule algebriche per risolvere in generale le equazioni di grado superiore al quarto). Nuove famiglie furono trovate nel 1957 da Claude Che- valley: in particolare, ciascun gruppo sporadico di Lie diede vita a una intera famiglia di analoghi definiti sui campi finiti. Nuovi gruppi sporadici furono trovati nel 1965 da Zvonimir Janko. Questi risultati aprirono una fa- se di scoperta, che portò all’isolamento di 18 famiglie e 26 gruppi sporadici, il più grande dei quali è un mostro di circa IO54 elementi. Come nella fisica delle particelle, spesso i nuovi gruppi furono dapprima previsti teorica- mente, e in seguito «osservati in laboratorio». Per esem- pio, il mostro appena citato fu previsto nel 1973 da Bernd Fischer e Robert Griess, e costruito (a mano!) da que- st’ultimo nel 1980. Il vero problema era però dimostrare che le 18 fami- glie e i 26 gruppi sporadici costituiscono la classificazio- ne cercata, nel senso che ogni gruppo semplice finito o sta in una delle famiglie, o è uno dei gruppi sporadici. Il programma per la sua soluzione fu enunciato da Daniel Gorenstein nel 1972: la dimostrazione, completata nel 1985, ha richiesto la collaborazione di un centinaio di ma- tematici, occupa 500 articoli per un totale di 15 000 pa- gine, e detiene il record di complessità nella storia della matematica. Il programma di Gorenstein procede per casi, ridu- cendo le possibilità a un centinaio, e dimostrando per eia-
MATEMATICA pura 77 scuna di esse un teorema di classificazione ristretto. Uno dei casi più importanti è quello dei gruppi semplici con un numero dispari di elementi: per la seconda congettura di Burnside, del 1906, essi devono essere esattamente i gruppi ciclici con un numero primo di elementi (mag- giore di 2). La congettura fu dimostrata nel 1962 da Wal- ter Feit e John Thompson, in un articolo di 250 pagine, e per questo lavoro Thompson ottenne la medaglia Fields nel 1970 e il premio Wolfnel 1992. La classificazione dei gruppi finiti non è comunque la fine della storia. Per esempio, la prima congettura diBurn- side, del 1902, chiedeva se ogni gruppo che abbia un nu- mero finito di generatori (ogni elemento è cioè una loro combinazione) e che sia periodico di ordine n (dopo n combinazioni con se stesso, ogni elemento si neutralizza) è finito. Poiché il viceversa è ovvio, la congettura avreb- be caratterizzato completamente i gruppi finiti, ma essa fu refutata nel 1968 da Petr Novikov (padre di Sergei, medaglia Fields nel 1970) e S. I. Adian. Una versione ristretta della congettura, già riformula- ta negli anni ’30, si accontenta di richiedere la finitezza non del gruppo stesso ma solo del numero dei suoi quo- zienti finiti, ed è stata dimostrata nel 1991 da Efim Zel- manov, che ha ottenuto per questo lavoro la medaglia Fields nel 1994. Egli ha provato il caso in cui n è una po- tenza di un numero primo, e il caso generale si può ri- condurre a questo mediante il teorema di classificazione dei gruppi finiti (una dimostrazione più diretta della con- gettura non è nota). 13. Topologia: la classificazione delle superfici tridi- mensionali di Thurston (1982). Uno dei grandi successi matematici del secolo xix fu la classificazione delle superfici bidimensionali chiuse da un punto di vista topologico: considerandole cioè come se fossero involucri di gomma che si possono deformare
78 CAPITOLO SECONDO a piacere, purché non le si strappi. Da questo punto di vista astratto un pallone gonfio e uno sgonfio sono la stessa superficie, benché dal punto di vista esterno uno possa sembrare una sfera, e l’altro un foglio ripiegato o accartocciato. Invece un pallone e un salvagente sono superfici diverse, perché non si può deformare il pallone per farlo diventare un salvagente senza romperlo. La classificazione fa un uso essenziale del concetto di superficie non orientabile, scoperto nel 1858 da Johann Listing e Augustus Mòbius. L’esempio piu noto è la co- siddetta striscia di Mòbius, che già appare in mosaici ro- mani del secolo ni: si prende una striscia rettangolare di carta, le si fa fare un mezzo giro nel senso della lunghez- za, e si incollano poi i due lati corti fra loro (se non si fa fare il mezzo giro, si ottiene un cilindro). La striscia di Mòbius ha un solo lato e un solo bordo (figura 12). Inol- tre non è orientabile, nel senso che su di essa non si pos- sono distinguere i versi orario e antiorario (o le mani de- stra e sinistra): una trottola che giri in un certo verso e percorra tutta la striscia, quando ritorna al punto di par- tenza si ritrova a girare nella direzione opposta. I lavori di Riemann nel 1857, Mòbius nel 1863 e Felix Klein nel 1882 portarono nel loro complesso alla dimo- strazione che ogni superficie bidimensionale chiusa è equivalente, da un punto di vista topologico, a esatta- mente una delle superfici di due famiglie infinite. La pri- ma famiglia consiste della sfera, e delle superfici (orien- tabili) che si ottengono aggiungendo a essa un numero finito di maniglie (cilindriche): un caso particolarmente interessante è la sfera con una sola maniglia, che equiva- le alla superficie a ciambella chiamata toro (figura 13). In particolare, le superfici bidimensionali orientabili sono completamente determinate dal numero dei loro buchi (figura 14). La seconda famiglia consiste delle superfici (non orientabili) che si ottengono dalla sfera tagliando via un numero finito di cerchi, e sostituendoli con altret- tante strisce di Mòbius (il che si può fare, perché la stri- scia ha un solo bordo): due casi particolarmente interes-
matematica pura 79 santi sono le sfere a cui sono state applicate una o due strisce, che equivalgono rispettivamente alle superfici chiamate piano proiettivo e bottiglia di Klein (figura 15). Ci sono tre tipi di geometrie possibili per una superfi- cie bidimensionale: quella euclidea solita, quella iperbo- lica e quella sferica (quest’ultima differisce sostanzial- mente dalle altre due, perché in essa non ci sono rette pa- rallele: due cerchi massimi si incontrano sempre). Dal punto di vista della geometria a esse associata, le superfi- ci delle due famiglie si dividono nel modo seguente: alla sfera e al piano proiettivo si può assegnare una geome- tria sferica; al toro e alla bottiglia di Klein una geometria euclidea; e a tutte le rimanenti superfici una geometria iper- bolica. Una volta ottenuta la classificazione delle superfici bi- dimensionali, è naturale cercare di classificare le superfi- ci a tre dimensioni: un lavoro portato avanti negli anni ’70 da William Thurston e non ancora concluso, ma che gli ha già fruttato la medaglia Fields nel 1983. Egli ha di- mostrato che nel caso tridimensionale ci sono non solo più tre, ma otto geometrie possibili: quelle dello spazio euclideo, dello spazio iperbolico, dell’ipersfera, degli ipercilindri a sezione sferica, degli ipercilindri a sezione iperbolica, più altre tre (due delle quali corrispondono ad assegnare allo spazio euclideo distanze diverse da quella solita). A complicare ulteriormente le cose, non a tutte le superfici tridimensionali si può assegnare una so- la di queste geometrie: è dunque necessario, in genera- le, tagliare le superfici a pezzi, e assegnare geometrie di- verse ai vari pezzi. Fortunatamente, come ha dimostrato Milnor nel 1962, le superfici tridimensionali si possono scomporre in pezzi canonici in maniera sostanzialmente unica, mediante appropriati tagli bidimensionali: si trat- ta dunque «soltanto» di assegnare geometrie ai pezzi ca- nonici, e questo è già stato fatto per molte (benché non ancora tutte) le superfici tridimensionali. Come già nel caso a due dimensioni, la geometria iperbolica continua anche ora a fare la parte del leone.
CAPITOLO SECONDO 8o Figura 12. Cilindro e striscia di Mòbius. Figura 13. Toro. Figura 14. Classificazione delle superfici bidimensionali orientabili. Figura 15. Piano proiettivo e bottiglia di Klein.
MATEMATICA PURA 81 Come abbiamo già detto parlando delle varietà esoti- che, una classificazione topologica delle superfici a quat- tro dimensioni è stata ottenuta da Michael Freedmam, che ha per questo ottenuto la medaglia Fields nel 1986. Per le superfici a 5 o più dimensioni una classificazione si ottiene invece dalla teoria dell’omotopia, alla quale accenneremo in seguito. Il caso tridimensionale rimane dunque l’unico da completare, ma non è comunque la fine della storia. Esiste infatti una importante sottoclasse di superfici multidimensionali, costituita dalle varietà algebriche (rea- li o complesse) definibili mediante sistemi di equazioni algebriche. Le varietà unidimensionali (o curve) algebri- che complesse sono particolari superfici reali, e una loro classificazione topologica discende dunque dalla gene- rale classificazione vista sopra, in termini di numero di buchi. Una classificazione delle varietà bidimensionali (o su- perfici) algebriche complesse (o quadridimensionali rea- li) fu uno dei risultati spettacolari della scuola italiana di geometria di Guido Castelnuovo, Federigo Enriques e Francesco Severi, ottenuto fra il 1891 e il 1949. In alcu- ni casi, per esempio quello delle superfici dette di tipo ge- nerale, gli italiani dimostrarono il risultato in maniera completa. In altri casi, invece, per esempio quello delle superfici dette irregolari, le dimostrazioni rimasero in- complete perché mancavano ancora i mezzi tecnici ne- cessari, che vennero sviluppati solo negli anni ’50 da Ku- nihiko Kodaira, e gli valsero la medaglia Fields nel 1994 e il premio Wolfnel 1984-89. Per questo motivo il teore- ma di classificazione delle varietà algebriche bidimen- sionali si chiama oggi di Enriques-Kodaira. Il più complicato studio delle varietà tridimensionali algebriche complesse (o a sei dimensioni reali) fu ini- zialmente intrapreso da Corrado Segre, ma in questo ca- so la mancanza di mezzi tecnici adeguati fu ancora più li- mitativa che nel precedente, e non permise alla scuola italiana di andare oltre sia pur notevoli intuizioni e con-
82 CAPITOLO SECONDO gettare. Lo sviluppo della tecnologia necessaria e la clas- sificazione delle varietà tridimensionali algebriche fu in- vece uno dei risultati spettacolari della scuola giappone- se di geometria di Heisuki Hironaka, Shing Tung Yau e Shigefumi Mori, che ottennero per i loro lavori la meda- glia Fields nel 1970, 1983 e 1990. In particolare, il primo mostrò come risolvere le singolarità di una varietà, tra- sformandola appropriatamente in un’altra senza singo- larità. Il secondo caratterizzò le varietà di Calabi-Yau, che non solo costituiscono un importante tassello della clas- sificazione ma, come accenneremo in seguito, hanno an- che trovato inaspettate applicazioni nella teoria delle stringhe. Il terzo formulò e portò a termine il cosiddetto programma del modello minimale, sul quale si basa ap- punto la classificazione. 14. Teoria dei numeri: la dimostrazione di Wiles del- l’ultimo teorema di Fermat (1993). Nel 1637 Fermat lesse l’Aritmetica di Diofanto, un mo- numentale libro del secolo ni, e annotò sul margine la se- guente osservazione: Dividere un cubo in due cubi, o in generale una potenza «-esi- ma in due potenze «-esime, è impossibile se « è maggiore di 2: ho trovato una dimostrazione veramente notevole di ciò, ma il margine è troppo ristretto per contenerla. Questa osservazione era stata anticipata per i cubi nel 1070 da Omar Khayyàm, matematico e poeta, autore del Robaiyyàt. Nella sua forma generale divenne nota come l’ultimo teorema di Fermat, ed è stata per 350 anni uno dei problemi più famosi della matematica. Fermat richiedeva che n fosse maggiore di 2 perché già i Babilonesi, e poi i Pitagorici, sapevano che ci sono qua- drati che si possono scrivere come somma di due qua- drati, per esempio 32+42 = 52, cioè 9 + 16=25.
MATEMATICA PURA 83 Si è trovata, nella corrispondenza di Fermat, una di- mostrazione del teorema per n = 4: essa usa un ingegno- so metodo detto discesa infinita, che consiste nel supporre Der assurdo che ci sia una soluzione, e far vedere che ai- ora ce ne deve essere un’altra i cui numeri non sono piu grandi di quelli della precedente, e almeno uno è stretta- mente più piccolo, il che porta a un impossibile regresso infinito. Nel corso degli anni i migliori matematici si impegna- rono nel problema, e confermarono il teorema in vari ca- si: n - 3 Euler nel 1753, n = 3 Dirichelet e Legendre nel 1825, n = 7 Lamé nel 1839, ogni n minore di 100 Kum- mer fra il 1847 e il 1857. Benché nel 1980 la verifica fos- se arrivata a ogni n minore di 125 000, mancava però una dimostrazione generale del teorema. Il primo vero risultato generale fu ottenuto in manie- ra piuttosto indiretta. Il punto di partenza è l’osservazio- ne che il teorema di Fermat richiede soluzioni intere di equazioni del tipo an+bn=d’. Poiché allora si tratta dunque di trovare soluzioni razionali di equazio- ni del tipo %"+/=l. Queste equazioni definiscono una curva se considera- te sui numeri reali, e una superficie se considerate sui nu- meri complessi: queste superfici si possono poi classifi- care in base al numero di buchi che hanno. Per esempio, per n-2 non ci sono buchi, perché l’equazione prece- dente definisce un cerchio come curva e una sfera come superficie; e ci sono infinite soluzioni razionali, che già Diofanto sapeva come descrivere completamente. Nel ca- so di n maggiore di 2 ci sono invece buchi: uno per n - 3,
84 CAPITOLO SECONDO tre per n - 4, sei per n = 5, e cosi via (figura 16). Natu- ralmente, col crescere dei buchi cresce la complessità del- la superficie e diminuisce la possibilità di trovarne solu- zioni semplici (razionali). Oltre alle equazioni precedenti, un altro tipo era nel frattempo risultato particolarmente interessante: le co- siddette curve ellittiche, che abbiamo già citato in prece- denza. In questo caso il numero dei buchi della corri- spondente superficie è uno, e anche qui è possibile ave- re infinite soluzioni razionali. Nel 1922 Leo Mordell propose la congettura di Mor- dell: gli unici tipi di equazioni che ammettono infinite soluzioni razionali sono quelli che definiscono superfi- ci o senza buchi, o con un solo buco. Il che significa che, se vale la congettura di Mordell, il teorema di Fermat è quasi vero, perché per tutti gli n maggiori di 3 (e il caso n = 3 era già stato risolto da Euler) l’equazione defini- sce una superficie con piu di un buco, e può dunque avere al massimo un numero finito di soluzioni razio- nali. Figura 16. Superficie associata all’equazione d+f- 1.
MATEMATICA PURA Nel 1962 Igor Shafarevich propose, a sua volta, la con- gettura di Shafarevich-. in certe condizioni, si possono tro- vare le soluzioni intere di un’equazione smontando dap- prima l’equazione, considerandone cioè i vari analoghi ottenuti limitando gli interi al di sotto dei vari numeri pri- mi, risolvendo questi analoghi finiti, e rimontando poi le soluzioni per ottenere una soluzione dell’equazione di partenza. In altre parole, si cerca di ricostruire le solu- zioni sulla base della conoscenza dei loro resti rispetto al- la divisione per vari numeri primi. Un legame fra le due congetture fu trovato nel 1968 da Parshin, il quale provò che dalla congettura di Shafare- vich discende la congettura di Mordell. E la congettura di Shafarevich venne dimostrata nel 1983 da Gerd Fal- tings, che ottenne per questo la medaglia Fields nel 1986. La dimostrazione utilizza in maniera essenziale la solu- zione di Deligne dell’ulteriore congettura di Weil, di cui parleremo in seguito. La dimostrazione della congettura di Mordell è un ri- sultato talmente interessante da essere stato propagan- dato come il «teorema del secolo», ma sembra non aiu- tare molto per quanto riguarda il teorema di Fermat: an- che una sola soluzione razionale dell’equazione x"+/=l produrrebbe infatti una soluzione intera dell’equazione a',+b,t=d1ì e quindi infinite soluzioni (ottenute moltiplicando la precedente per una costante). In realtà, nel 1985 An- drew Granville e Roger Heath-Brown riuscirono a de- rivare dal teorema di Faltings la validità del teorema di Fermat per infiniti esponenti primi. Anzi, per quasi tut- ti gli esponenti, da un punto di vista di teoria della mi- sura. Alla dimostrazione del teorema di Fermat per tutti gli esponenti maggiori di 2 si arrivò ancora una volta per una strada molto indiretta, attraverso la cosiddetta congettu-
86 CAPITOLO SECONDO ra di Taniyama. Il punto di partenza è ora l’osservazione che l’equazione 2 2 si può parametrizzare mediante le cosiddette funzioni tri- gonometriche, seno e coseno, che soddisfano appunto al- l’equazione fondamentale (sencc)2 + (cosa)2= 1. Risolvere l’equazione di Fermat per n = 2 significa dunque trovare un angolo a i cui seno e coseno siano ra- zionali. In maniera analoga, le cosiddette funzioni trigo- nometriche iperboliche parametrizzano l’equazione x2-y2=1 Passando dalle equazioni quadratiche che definiscono le coniche alle cubiche, Taniyama congetturò nel 1955 che certe funzioni modulari, più generali di quelle trigo- nometriche, parametrizzano in maniera analoga qualun- que curva ellittica. Il legame fra la congettura e il teorema di Fermat fu notato nel 1985 da Gerhard Frey, il quale propose di as- sociare all’equazione di Fermat d’+b^d1 la curva ellittica y2=x(x + af,fx - b’T Frey notò che la sua curva ellittica ha proprietà troppo belle per essere vere: per esempio, il discriminante che determina l’esistenza di radici del polinomio (x + a”) {x-bn}-x2+x (an- b”) - an b”, e cioè A = \ ' ( Z - )2 + 4«"è" = a" + b" = cn, è una potenza zz-sima perfetta. Nel 1986 Ken Ribet di- mostrò che la curva di Frey non può essere parametriz- zata da funzioni modulari: il che, detto altrimenti, signi- fica che dalla congettura di Taniyama discende il teore- ma di Fermat.
MATEMATICA PURA 87 Rimaneva «soltanto» più da dimostrare la congettu- ra. Nel 1995 Andrew Wiles riuscì a provarne una parte, per una classe di curve ellittiche dette semistabili, a cui appartiene la curva di Frey, risolvendo cosi uno dei più famosi problemi aperti della matematica moderna. Wi- les ottenne per questo storico risultato il premio Wolf nel 1995-96, ma non potè aggiudicarsi una medaglia Fields nel 1998 perché aveva da poco superato i quarant’anni. Nel 1999 Brian Conrad, Richard Taylor, Christophe Breuil e Fred Diamond hanno completato il lavoro di Wi- les, dimostrando che la congettura di Taniyama vale an- che per le curve ellittiche non semistabili. 15. Geometria discreta: la soluzione di Hales del pro- blema di Keplero (1998). Nel 1600 Sir Walter Raleigh chiese al matematico Thomas Harriot una formula per calcolare quante palle da cannone ci fossero in un mucchio. Naturalmente la co- sa dipende da come le palle sono ammucchiate, e Har- riot si chiese quale fosse il modo più efficiente per farlo. Nel 1606 il problema rimbalzò all’astronomo Johannes Keplero, che vi trovò un’analogia con il problema della formazione dei cristalli di neve, delle celle degli alveari e dei semi dei melograni. In particolare, egli immaginò che in tutti questi casi fosse in azione uno stesso meccanismo, in cui sfere disposte in reticoli spaziali di varia forma, espandendosi, tendono a riempire completamente lo spa- zio intermedio. Nel 1611 Keplero riformulò il problema matematico sottostante nel seguente modo: determinare quale confi- gurazione di sfere con lo stesso raggio abbia la massima densità, nel senso del rapporto (al limite) tra il volume to- tale delle sfere e quello dello spazio che le contiene. Un analogo problema nel piano richiede la determinazione della configurazione di cerchi con lo stesso raggio che ab- bia la massima densità, questa volta relativamente all’area.
88 CAPITOLO SECONDO Le due configurazioni ovvie da considerare nel caso dei cerchi sono quella quadrata e quella esagonale (figu- ra 17), e Keplero determinò che le loro densità sono, ap- prossimativamente, 0,785 e 0,907: la configurazione esa- gonale è dunque la migliore delle due, come si vede an- che a occhio. Ma questo non risolve il problema, che chiede la migliore configurazione possibile! Nel 1831 Gauss dimostrò che la configurazione esa- gonale è la migliore fra tutte quelle reticolari, tali cioè che i centri dei cerchi formino un reticolo planare, ossia una configurazione simmetrica di parallelogrammi. Nel 1892 Axel Thue annunciò di aver dimostrato che la configu- razione esagonale è la migliore in assoluto, ma la dimo- strazione fu pubblicata soltanto nel 1910. Nello spazio, le quattro configurazioni ovvie da consi- derare sono quelle ottenute sovrapponendo fra loro stra- ti ovvi di sfere: ci sono due scelte per le configurazioni degli strati orizzontali (quadrate o esagonali), e due scel- te per la disposizione verticale degli strati (con i centri delle sfere allineati, o sfasati). In realtà, però, le quattro configurazioni descritte sono solo tre: quando siano so- vrapposti sfasati, strati quadrati o esagonali producono la stessa configurazione (figura 18). Keplero determinò che le densità delle configurazioni quadrata allineata, esagonale allineata e (quadrata o esa- gonale) sfasata sono, approssimativamente, 0,524, 0,605 e 0,740: la configurazione sfasata è dunque la migliore delle tre. E, infatti, è quella che viene spontaneamente usata per disporre la frutta sulle bancarelle dei mercati. Ma, ancora una volta, questo non risolve il problema ma- tematico. Gauss dimostrò che, analogamente alla configurazio- ne esagonale nel piano, la configurazione sfasata nello spazio è la migliore fra tutte quelle reticolari, tali cioè che i centri delle sfere formino un reticolo spaziale, ossia una configurazione simmetrica di parallelepipedi. Il caso ge- nerale costituiva la terza parte del diciottesimo problema di Hilbert ed è stato risolto nel 1998 da Thomas Hales,
MATEMATICA PURA 89 che ha provato che la configurazione sfasata è effettiva- mente la migliore. La struttura della dimostrazione ri- corda quella del teorema dei quattro colori, sulla quale torneremo in seguito: si tratta di ridurre le configurazio- ni da verificare a un numero sufficientemente piccolo da poter essere controllato dal calcolatore. La riduzio- ne prende 250 pagine, e il programma per il computer 3 gigabytes. Quando il numero di dimensioni sale, il problema di- venta ancora più interessante. Anzitutto, in 2 dimensio- ni si possono porre 4 cerchi di raggio 1 all’interno di un quadrato di lato 4Le rimane posto al centro per un cer- chietto di raggio <2-1 = 0,41. In 3 dimensioni si posso- no porre 8 sfere di raggio 1 all’interno di un cubo di lato 4,e rimane posto al centro per una sferetta di raggio < 3 -1 = 0,73 (figura 19). In n dimensioni si possono por- re 2" ipersfere di raggio 1 all’interno di un ipercubo di lato 4, e rimane posto al centro per una ipersferetta di raggio \ n-1. I raggi delle ipersferette che si possono inserire fra le ipersfere continuano dunque a crescere con il numero di dimensioni, come già si vede nel passaggio da 2 a 3. Quando_si raggiungono 9 dimensioni la ipersferetta ha raggio \ 9-1 = 2, e dunque tocca le facce dell’ipercubo, e quando n è maggiore di 9 essa addirittura fuoriesce da esso! Il problema della miglior configurazione di ipersfere pluridimensionali fra tutte quelle reticolari è stato risol- to fino alla dimensione 8. E però noto che non sempre le configurazioni reticolari offrono la migliore densità: per esempio, nel 1971 Leech e Sloane hanno mostrato che cosi non è in 10 dimensioni. Un caso particolarmente interessante è quello della di- mensione 24: nel 1965 Leech ha costruito una configu- razione, chiamata appunto reticolo di Leech, che è pro- babilmente la migliore fra tutte quelle reticolari, e in cui ciascuna ipersfera ne tocca 196560 altre (nella configu- razione sfasata dello spazio a 3 dimensioni, ciascuna sfe-
90 CAPITOLO SECONDO Figura 17. Configurazioni di cerchi. Figura 18. Configurazioni di sfere. Figura 19.
MATEMATICA PURA 91 ra ne tocca 12 altre). Dallo studio di questo reticolo John Conway dedusse, nel 1968, tre dei 26 gruppi sporadici usati nel teorema di classificazione dei gruppi semplici finiti. Il problema della configurazione di ipersfere a massi- ma densità in spazi multidimensionali riveste oggi una grande importanza per la trasmissione dei messaggi, in particolare per la compressione dei dati e la correzione degli errori. Stringhe binarie di n simboli individuano in- fatti gli spigoli di un ipercubo a n dimensioni, e per evi- tare errori di trasmissione si vuole impedire che spigoli adiacenti a uno spigolo che codifica un messaggio, codi- fichino a loro volta messaggi: una configurazione di iper- sfere a massima densità permette di massimizzare il nu- mero di messaggi, minimizzando la possibilità di errore. E il reticolo di Leech è stato appunto scoperto lavoran- do a problemi di questo tipo.
Capitolo terzo Matematica applicata La matematica, come Giano, ha due facce: la prima è rivolta verso l’interno dell’uomo, al mondo delle idee e delle astrazioni, e la seconda è rivolta verso l’esterno, al mondo degli oggetti e delle concretezze. La prima faccia rappresenta il lato puro della matematica, in cui l’atten- zione si concentra disinteressatamente sui suoi enti, al fi- ne di conoscerli per ciò che sono. La seconda faccia co- stituisce la parte applicata, in cui l’attenzione verso gli stessi enti è interessata, allo scopo di poterli applicare per ciò che possono fare. Le applicazioni della matematica hanno costituito una caratteristica costante della sua storia, dai tempi degli Egi- zi e dei Babilonesi alla rivoluzione industriale, e ciascuna branca della matematica classica è stata, ai suoi inizi, sti- molata da problemi pratici: ragionieristici l’aritmetica, agricoli la geometria, e fisici l’analisi. In seguito queste aree sono state continuamente stimolate da motivazioni prag- matiche e utilitaristiche, che hanno contribuito al loro svi- luppo anche teoretico, con ricadute spesso inaspettate. La matematica del secolo xx in questo non fa eccezio- ne, e molte sue nuove branche sono nate proprio grazie alla sollecitazione esterna, per risolvere problemi legati al mondo reale. Alcune di queste motivazioni derivano da aree scientifiche la cui fertilità è sperimentata, quali la fisica-, essa ha ispirato, se non la nascita, certamente la cre- scita del calcolo tensoriale, dell’analisi funzionale e della teoria dei nodi, che sono essenziali per la formulazione della relatività generale, della meccanica quantistica e del- la teoria delle stringhe.
MATEMATICA APPLICATA 93 Altre motivazioni derivano invece da aree che solo nel secolo xx sono diventate scientifiche, appunto quando la scoperta di adeguati strumenti matematici ha permesso di trattare e risolvere alcuni dei loro problemi fonda- mentali. Esempi tipici sono V economia e la biologia-, per risolvere problemi della prima sono nate le teorie dei gio- chi, dell’equilibrio generale e dell’ottimizzazione; e pro- blemi della seconda, considerati a lungo inaccessibili, si possono oggi affrontare mediante la teoria dei nodi. Gli strumenti matematici a cui abbiamo appena ac- cennato, e su cui torneremo più diffusamente, toccano vette di sofisticazione tecnica. Ma questa non è affatto ne- cessaria affinché un argomento matematico abbia effetti dirompenti, purché la sua mancanza sia compensata da sofisticazione filosofica. Prima di procedere oltre voglia- mo appunto mostrare, con tre esempi relativi alle tre aree appena citate, come anche la matematica più elementare possa essere sufficiente, se usata in maniera oculata, per risolvere significativi problemi fondazionali delle scienze. Il primo di questi problemi riguarda la nozione di realtà fisica, che fu messa in forse dalla scoperta della meccanica quantistica, e più in particolare dalla descri- zione dei fenomeni subatomici in termini di funzione d’onda. A causa delle sue difficoltà di interpretazione, Niels Bohr propose di considerare la teoria come la de- scrizione non di ipotetiche particelle fisiche, ma soltanto delle risultanze di esperimenti sugli apparati di misura: secondo Bohr la nozione di realtà, che si era sviluppata storicamente per la descrizione del mondo macroscopi- co, cessava di aver senso a livello microscopico. Questa interpretazione idealista della nuova fisica in- contrò naturalmente profonde resistenze, in particolare da parte di Albert Einstein. Egli continuò a pensare per tutta la vita che fosse possibile trovare una descrizione realista dei fenomeni subatomici, della quale la meccani- ca quantistica sarebbe risultata soltanto un’approssima- zione, e propose nel 1935 un famoso esperimento di pen- siero, detto di Einstein, Podolski e Rosen dal nome dei
94 CAPITOLO TERZO suoi tre autori, che mostrava l’incompletezza della mec- canica quantistica. Nel 1964 John Bell trovò una versione dell’esperi- mento che si poteva verificare praticamente, e le cui ri- sultanze furono inaspettate. Si tratta di considerare un raggio di luce che passa successivamente attraverso due filtri polarizzati: la meccanica quantistica prevede, e l’e- sperienza conferma, che una volta che il raggio di luce è passato attraverso il primo filtro, la frazione dei suoi fo- toni che passa anche attraverso il secondo filtro è cos2(a), dove a è l’angolo formato dalle direzioni di polarizzazio- ne dei due filtri. Consideriamo che cosa succede quando ciascuno dei due filtri si dispone o verticalmente, o a 60°, o a 120°. Se i due filtri hanno la stessa direzione, il che succede in - 3 dei 9 possibili casi, il secondo filtro lascia passare tutti i fotoni del raggio uscito dal primo filtro. Se i due filtri han- no invece direzioni diverse, il che succede nei rimanenti — dei casi, essi formano sempre un angolo reciproco di 60°, e il secondo lascia passare — 2 = — dei fotoni usciti 4 12 1 1 dal primo. In media passa quindi soltanto - + — • — = — dei fotoni. 3 3 4 2 Ciò che Bell scopri è che queste risultanze sperimen- tali sono in contraddizione con l’ipotesi che i fotoni si possano pensare realisticamente, come particelle che ar- rivano ai filtri essendo già polarizzate in una determina- ta direzione. Infatti, se cosi fosse, quando i filtri hanno la stessa direzione passerebbero effettivamente attraverso entrambi gli stessi fotoni. Se invece i filtri sono polariz- zati ciascuno in una qualunque delle tre direzioni, dal secondo dovrebbero passare almeno — dei fotoni che 9 i sono usciti dal primo, e dunque più di — . Infatti, nei 3 casi in cui i filtri hanno la stessa direzione, passano at-
MATEMATICA APPLICATA 95 traverso essi gli stessi fotoni; e se un fotone passa attra- verso i filtri disposti in due direzioni diverse, esso do- vrebbe passare anche quando si scambino le due dire- zioni fra di loro, cioè in altri 2 casi. Un semplice calcolo di aritmetica elementare ha dunque mostrato che l’ipotesi del realismo ingenuo è in contrad- dizione con le risultanze sperimentali. E versioni più so- fisticate del teorema di Bell, confermate da famosi espe- rimenti di Alain Aspect nel 1982, dimostrano che, ben- ché sia possibile interpretare realisticamente la meccanica quantistica, questo non si può fare mantenendo intatta la concezione della realtà che abbiamo a livello macrosco- pico. In particolare, non si può continuare a supporre che oggetti separati nello spazio non possano interagire istan- taneamente, e si deve quindi postulare l’esistenza di con- nessioni distiche, che non fanno parte del bagaglio cul- turale occidentale. Il secondo problema fondazionale che affrontiamo ri- guarda la nozione di scelta sociale fra più alternative, a partire dalla conoscenza delle preferenze individuali. Il problema sorge nelle situazioni più svariate: dalla scelta dei candidati in un’elezione politica, a quella di un piano economico da parte di un consiglio di amministrazione. Una difficoltà del problema fu scoperta nel 1785 da Marie Jean Antoine Nicolas de Caritat, meglio noto co- me marchese di Condorcet, e si può illustrare con un esempio pratico. Nelle elezioni presidenziali statuniten- si del 1976 Jimmy Carter vinse su Gerald Ford, il quale aveva ottenuto la nomination repubblicana vincendo su Ronald Reagan. Ma i sondaggi dicevano che Reagan avrebbe vinto su Carter: come poi successe effettiva- mente, benché in condizioni politiche diverse, nel 1980. Si era dunque verificata una situazione paradossale pre- vista da Condorcet: che in un sistema elettorale in cui i candidati vengono selezionati in elezioni successive, due a due, il vincitore può dipendere dall’ordine in cui ven- gono effettuate le votazioni. Per esempio, per far vince- re Ford sarebbe bastato far prima la votazione tra Car-
96 CAPITOLO TERZO ter e Reagan, e poi la votazione tra il vincitore (Reagan) e Ford. La domanda ovvia è se si possa in qualche modo emen- dare il sistema elettorale, in modo che sia impossibile il verificarsi di situazioni come la precedente. La risposta, sorprendentemente negativa, fu trovata nel 1951 da Ken- neth Arrow: essa fu il punto di partenza della teoria del- le scelte sociali, che valse ad Arrow il premio Nobel per l’economia nel 1972. Il teorema di Arrow stabilisce che non esiste nessun si- stema elettorale che soddisfi ai principi della libertà in- dividuale, della dipendenza dal voto, dell’unanimità, e del rifiuto della dittatura. Più esplicitamente, non esiste nessun sistema elettorale in cui: ogni votante può votare per il candidato che preferisce; il risultato dell’elezione dipende soltanto dai voti dati; un candidato che prenda tutti i voti vince; e nessun elettore è in grado di determi- nare sempre e da solo il risultato dell’elezione. Naturalmente, le ipotesi che stanno alla base del teo- rema di Arrow sono di solito considerate irrinunciabili in un sistema democratico, e per questo in genere si dice concisamente che Arrow ha dimostrato che la democra- zia non esiste. La cosa interessante dal nostro punto di vista è che la dimostrazione sia di natura matematica, e che a essa si arrivi mediante una semplice assiomatizza- zione delle condizioni che stanno alla base del parados- so di Condorcet: il che mostra che la matematica può es- sere applicata anche in un campo umanistico che, a pri- ma vista, si sarebbe potuto pensare refrattario ad analisi formali. L’ultimo problema fondazionale che consideriamo ri- guarda la nozione di autoriproduzione, caratteristica de- gli organismi viventi. Nel 1951 John von Neumann, svi- luppando la teoria degli automi cellulari, si pose il pro- blema di costruire una macchina in grado di auto- riprodursi, e lo risolse matematicamente nel seguente mo- do, ispirandosi a una tecnica usata in teoria della com- putabilità.
MATEMATICA APPLICATA 97 Consideriamo una macchina C che sia un costruttore universale, nel senso che sappia costruire una qualunque macchina M di un certo tipo, a partire da una sua descri- zione m. In particolare, la macchina C può costruire una copia di se stessa, a partire dalla propria descrizione c, ma questa non è ancora un’autoriproduzione: partendo dal sistema costituito da C e dalla sua descrizione c, si ottie- ne infatti soltanto una copia della macchina C stessa, al- la quale manca però una copia della sua descrizione c. Per ovviare al problema, consideriamo allora una mac- china F che sia una fotocopiatrice universale, nel senso che sappia riprodurre una copia di qualunque descrizio- ne m. Accoppiando le macchine C e F, se ne può ottene- re una nuova A. che, a partire dalla descrizione m, ne fac- cia una copia, costruisca M, e le inserisca la copia di m. La macchina A con la propria descrizione a è ora effetti- vamente autoriproducentesi, perché costruisce A e le in- serisce la descrizione a. Benché il meccanismo appena descritto sia stato pen- sato in termini di riproduzione meccanica, nel 1953 Fran- cis Crick e James Watson scoprirono che esso fornisce anche un modello molecolare della riproduzione biolo- gica, in un lavoro che valse loro il premio Nobel per la me- dicina nel 1962. Più precisamente, la descrizione m svol- ge il ruolo di un gene, ossia di un segmento di dna, che codifica l’informazione per la riproduzione. F, uno spe- ciale enzima detto rna polimerasi, ha la funzione di du- plicare il materiale genetico in un segmento di rna. C, un insieme di ribosomi, costruisce proteine secondo l’infor- mazione di questo segmento. A è una cellula autoripro- ducentesi. Naturalmente non solo il modello è semplificato, ma esso si disinteressa completamente dei «dettagli» chimi- ci del meccanismo, tacendo in particolare sulla famosa struttura a doppia elica del dna scoperta da Crick e Wat- son: un tipo di indagini che fa, ovviamente, parte di altri campi. La cosa interessante, dal nostro punto di vista, era invece mostrare come il piano generale della riproduzio-
98 CAPITOLO TERZO ne si possa scoprire in teoria, e sia stato scoperto in pra- tica, mediante un semplice uso di tecniche logiche. Dopo questi esempi di applicazione della matematica elementare a problemi fondazionali, possiamo ora pas- sare ad affrontare le applicazioni della matematica supe- riore a problemi più propriamente scientifici. 1. Cristallografia: i gruppi di simmetria di Bieberback (1910). Il comandamento che nella tradizione cristiana viene ridotto a «non avrai altro Dio all’infuori di me», nella for- mulazione originale (Esodo, XX, 3-6; Tdeuteronomio, V, 7-10) continuava: «non ti fare nessuna scultura, né im- magine delle cose che splendono su nel cielo, o sono sul- la terra, o nelle acque sotto la terra». La proibizione di un’arte figurativa fu presa seriamente da Ebrei e Arabi, che svilupparono un’arte puramente astratta e geometrica, ed esplorarono i possibili tipi di de- corazione murale. Il risultato più elevato in questo carn- eo fu raggiunto nel secolo xiv, con le piastrellazioni del- ..’Alhambra di Granada (figura 20). Benché le possibili decorazioni murali siano ovvia- mente illimitate in numero, esse sono invece limitate per quanto riguarda il tipo. Da un punto di vista matemati- co, le simmetrie esibite da queste decorazioni si possono infatti classificare in base alle possibili combinazioni (più precisamente, ai possibili gruppi di simmetria) di tra- sformazioni che le lasciano invariate: traslazioni lungo una retta, riflessioni rispetto a una retta, e rotazioni at- torno a un punto. Nel 1891 Fedorov dimostrò che esistono soltanto 7 ti- pi diversi di gruppi di simmetria per fregi lineari, quali le greche e gli zoccoli (figura 21), e 17 per quelli planari, quali le pavimentazioni e le tappezzerie (figura 22). Inol- tre, i gruppi planari possono soltanto esibire simmetrie rotazionali di 180°, 120°, 90° e 60°, cioè di tipo assiale,
MATEMATICA APPLICATA 99 triangolare, quadrato ed esagonale. Quasi tutti questi ti- dì sono stati effettivamente usati nelle decorazioni del- ’Alhambra, cosi come in quelle di varie altre civiltà, da- gli Egizi ai Giapponesi. Se gli oggetti planari simmetrici più comuni sono le de- corazioni murali, quelli spaziali più noti sono i cristalli. La cristallografia fu appunto uno dei primi campi di ap- plicazione della teoria dei gruppi, a partire dal 1849 con Auguste Bravais. E nel 1890, prima di dimostrare l’ana- logo risultato per i tipi di gruppi di simmetria planari, Fe- dorov aveva già dimostrato che esistono soltanto 230 ti- pi diversi di gruppi di simmetria spaziali. Figura 20. Una piastrellazione dell’Alhambra.
100 CAPITOLO TERZO Figura 21. 17 gruppi di simmetria lineari. Tappeto «drago e fenice», Asia Minore Vetrata colorata, Cattedrale di Bourges Decorazione di uno scrigno (Rinascimento francese)
MATEMATICA APPLICATA 101 Figura 22. I 17 gruppi di simmetria planari. i Decorazione muraria medievale francese II Tappeto ghiordes III Manoscritto miniato medievale IV Tappeto shiraz V Decorazione di pennacchi di archi, Àlhambra VI Tappeto francese rinascimentale vn Tessuto del xvi secolo vm Seta moresca del xiv secolo IX Mosaico pompeiano XIV Vaso giapponese in ferro battuto XV Manoscritto miniato persiano XVI Piastrelle inglesi moderne
102 CAPITOLO TERZO La prima parte del diciottesimo problema di Hilbert chiedeva se, per ogni n, i tipi di gruppi di simmetria a n dimensioni sono un numero finito. Una risposta positiva fu data nel 1910 da Ludwig Bieberbach, ma ancor oggi non si conosce una formula esplicita che dia il numero di tali gruppi in generale: per esempio, solo negli anni ’70 si è riusciti a dimostrare che ci sono 4783 gruppi di sim- metria quadridimensionali. La seconda parte del diciottesimo problema di Hilbert era complementare alla prima: invece di chiedere quan- ti fossero i possibili modi simmetrici di pavimentare il pia- no, chiedeva se esiste un tipo di piastrelle che permette di pavimentare l’intero piano, ma soltanto in maniera non simmetrica. Anche qui la risposta è positiva, e fu data nel 1935 da Heesch: un esempio è mostrato nella figura 23, di Maurits Escher. Più esigente è la richiesta di un tipo di piastrelle che permetta di pavimentare l’intero piano, ma soltanto in maniera non periodica: senza cioè ripetere all’infinito la stessa configurazione. La domanda fu posta nel 1961 da Hao Wang: il suo interesse stava nel fatto che una rispo- sta negativa avrebbe fornito un procedimento per deci- dere se, dato un insieme di piastrelle, esse potessero pa- vimentare l’intero piano oppure no. Nel 1966 Robert Berger dimostrò invece che un tale procedimento di decisione non esiste, e dunque che esi- stono piastrelle che pavimentano il piano soltanto in ma- niera non periodica. L’esempio originale di Berger era piuttosto complicato, e consisteva di 20 246 piastrelle di- verse. Nel 1974 Roger Penrose trovò un esempio sem- plice, di due sole piastrelle (figura 24). Non è noto se esi- stano esempi formati di una sola piastrella (un esempio di un unico poliedro che da solo riempie tutto lo spazio, e solo in maniera non periodica, è stato invece trovato nel 1993 da John Conway). L’esempio di Penrose è interessante matematicamen- te perché esibisce una simmetria di rotazione pentago-
MATEMATICA APPLICATA 103 Figura 23. Maurits Escher, Fantasmi, 1971. Figura 24. Piastrelle di Penrose.
io4 CAPITOLO TERZO naie (figura 25), che nessuna pavimentazione planare sim- metrica può invece esibire. Esso acquistò anche un in- teresse fisico quando, nel 1984, il cristallografo Daniel Schechtman scopri una lega di alluminio e manganese, la superficie della cui struttura molecolare esibisce una sim- metria dello stesso tipo, che nessuna struttura cristallina può invece esibire: tali strutture sono state chiamate qua- sicristalli. La scoperta dei quasicristalli mostra che, per la de- scrizione della natura, la teoria dei gruppi non è l’ultima parola, e qualche teoria piu generale è dunque necessa- ria. Per questo motivo, nello studio delle proprietà dei quasicristalli e nella ricerca di una classificazione delle lo- ro strutture, in particolare dei gruppi quasicristallografi- ci, si stanno impegnando matematici quali Sergei No- vikov ed Enrico Bombieri, medaglie Fields negli anni 1970 e 1974. Figura 25. Simmetria di Penrose.
MATEMATICA APPLICATA 105 2. Calcolo tensoriale: la relatività generale di Einstein (1915). Il fatto che la terra sia stata a lungo considerata piatta mostra intuitivamente che la curvatura di una sfera è tan- to piu piccola quanto più il raggio è grande. Formal- mente, la curvatura di un cerchio viene definita come l’in- verso del raggio. Per curve più complicate la curvatura fu definita da Newton nel 1671, considerando in ciascun punto la curvatura del cerchio (detto osculatore) che ap- prossima la curva in quel punto. La curvatura di una superficie fu invece definita da Gauss nel 1827, considerando in ciascun punto il pro- dotto fra la minima e la massima curvatura delle curve ot- tenute sezionando la superficie con piani perpendicola- ri al piano tangente, e passanti per quel punto. Per esem- pio, la sfera ha la stessa curvatura dei suoi cerchi massimi, che ne costituiscono appunto le sezioni; e il cilindro ha curvatura nulla, perché una delle sezioni è semplicemente una retta. Per poter calcolare la curvatura di una superficie nel modo precedente è però necessario effettuare misure al di fuori di essa, passando attraverso lo spazio che la con- tiene. Gauss scopri che è anche possibile calcolare la cur- vatura mediante misure effettuate soltanto sulla superfi- cie: in particolare, determinando che la terra è rotonda senza doverla guardare dallo spazio. Gauss dimostrò poi un risultato tanto soddisfacente che persino lui, ben noto per la sua esigenza, lo chiamò theorema egregium-. 'iliQXX.o, cioè, che le superfici che pos- siedono una geometria intrinseca, nel senso che le figure si possono spostare su di esse senza subire deformazioni, sono esattamente quelle a curvatura costante. L’analogo delle rette su queste superfici sono le cosiddette geodeti- che, ossia le linee di minima distanza fra due punti. Per esempio, su una sfera le geodetiche sono gli archi di cer- chi massimi; e sul cilindro esse sono le curve che si ot-
IOÓ CAPITOLO TERZO tengono collegando i due punti con un segmento, dopo che il cilindro è stato tagliato per lungo e dispiegato sul piano. Nel piano le uniche curve a curvatura costante sono la retta, che ha curvatura nulla, e il cerchio, che ha curvatu- ra positiva. Nello spazio, il piano e il cilindro hanno cur- vatura nulla, e la sfera ha curvatura costante positiva. Ma Gauss scopri che ci sono anche superfici a curvatura co- stante negativa: per esempio la pseudosfera, che si ottiene ruotando attorno al suo asintoto una curva detta trattrice, che si ottiene camminando lungo una retta e tirando un peso mediante una corda di lunghezza fissa (figura 26). Nel 1854 Riemann estese la nozione di curvatura an- che alle sue varietà, che non si possono sempre immer- gere nello spazio euclideo. E determinò la geometria delle varietà a curvatura costante: essa è euclidea se la cur- vatura è nulla, sferica se la curvatura è positiva, e iperbo- lica se la curvatura è negativa. In particolare, la pseudo- sfera rappresenta un modello di una parte del piano iper- bolico nello spazio euclideo (solo una parte, perché la pseudosfera ha un buco ma il piano iperbolico no): fu proprio elaborando questo modello parziale, che Beltra- mi ottenne il primo modello completo del piano iperbo- lico, di cui abbiamo già parlato. Oltre che come modelli di geometrie matematiche, le varietà di Riemann possono essere considerate come mo- Figura 26. Trattrice e pseudosfera.
MATEMATICA APPLICATA 107 delli del mondo fìsico: il primo a proporre tale possibi- lità fu Gauss, che effettuò misure geografiche per deter- minare se la geometria dell’universo fosse veramente eu- clidea, come si era sempre pensato, o no. Le sole grandezze che hanno rilevanza geometrica so- no quelle che, come la distanza, si possono esprimere in maniera indipendente dal sistema di coordinate. Analo- gamente avviene per le leggi fisiche: poiché queste sono in genere espresse in forma differenziale, per poter ap- plicare la geometria riemanniana alla fisica era necessa- rio intraprendere uno studio di invarianza delle equazio- ni differenziali rispetto a cambiamenti di coordinate su varietà di Riemann. Lo strumento sviluppato a questo scopo, a partire dal 1892, da Gregorio Ricci Curbastro fu chiamato calcolo tensoriale. I tensori di cui esso tratta sono quantità che si trasformano in modo tale che le loro componenti in un sistema di coordinate sono combinazioni lineari delle componenti in un altro sistema, con coefficienti dati dal- le derivate della trasformazione. Ricci definì sui tensori operazioni sia algebriche (somma e prodotto) che diffe- renziali (derivazione covariante), rendendo cosi possibi- le l’estensione alle varietà di Riemann dell’intero appa- rato analitico già sviluppato nel caso euclideo. Nel 1901 Ricci e Tullio Levi Civita espressero in for- ma tensoriale, e dunque invariante rispetto a cambia- menti di coordinate, varie leggi fisiche. Ma l’applicazio- ne più interessante la fece Albert Einstein, che nel 1915 trovò nel calcolo tensoriale lo strumento adatto per de- scrivere la sua teoria della relatività generale. Le varietà di Riemann usate da Einstein sono quadri- dimensionali, con tre dimensioni spaziali e una tempora- le: per questo motivo, in genere ci si riferisce a esse come a modelli dello spazio-tempo. La specifica forma della va- rietà, e in particolare la sua curvatura, è determinata dal- la distribuzione della materia nell’universo, e i corpi li- beri si muovono sulla varietà percorrendo le geodetiche,
108 CAPITOLO TERZO come massi che rotolano lungo una china secondo linee di minima resistenza. Una volta ridotta la gravitazione alla geometria, è na- turale cercare una simile riduzione anche delle altre for- ze fisiche. La prima formulazione di una teoria com- prendente anche l’elettromagnetismo fu trovata da Hil- Dert nel 1915: egli dedusse elegantemente (e indipen- dentemente) le equazioni di Einstein, oltre che quelle di Maxwell, da un unico principio variazionale, in confor- mità alle richieste formulate nel suo sesto problema, che chiedeva una assiomatizzazione della fisica. Un diverso tentativo fu effettuato nel 1918 da Hermann Weyl, che descrisse sia la gravitazione che l’elettroma- gnetismo usando una varietà quadridimensionale di na- tura affine (non riemanniana), invece che metrica (rie- manniana): in tali varietà, mentre il parallelismo è indi- pendente dal sistema di coordinate, la distanza non è detto che lo sia. Questo richiede una nuova definizione di geo- detica, visto che essa non può più essere definita come una linea di minima distanza: una richiesta già formulata nel quarto problema di Hilbert, che chiedeva appunto un trat- tamento generale della nozione di geodetica. La soluzio- ne di Levi Civita, nel 1917, fu di definire le geodetiche co- me le curve le cui tangenti sono tutte fra loro parallele. Benché la teoria di Weyl (così come quella di Hilbert) non sia risultata soddisfacente dal punto di vista fisico, es- sa ha inaugurato lo studio delle varietà non riemanniane in geometria. Una soddisfacente trattazione comune dei campi gravitazionale ed elettromagnetico rimane tuttora un problema aperto, e fa parte del più generale proble- ma di unificazione di tutte le forze in una teoria del tutto. 3. teoria dei giochi: il teorema minimax di Von Leu- mann (1928). La vita costringe a fare continue scelte a ogni livello (personale, familiare, sociale) e in ogni campo (morale,
MATEMATICA APPLICATA 109 economico, politico), in situazioni di conoscenza imper- fetta della situazione, del comportamento altrui, e degli effetti delle varie scelte. La teoria dei giochi ha come sco- po la modellizzazione matematica di questo processo de- cisionale, nella maniera tipica della scienza: astraendo, cioè, dalle situazioni reali alcuni elementi che si prestino a un trattamento formalizzato. Un primo esempio significativo di una tale analisi del comportamento risale al 1651, ned Leviatano di Thomas Hobbes. Egli propose l’idea che le società umane siano alleanze rese necessarie dal contenimento del violento stato di natura, fondato da un lato sull’aggressione con- tro tutti, e dall’altro sulla paura di chiunque: in altre pa- role, sulla preferenza per la non cooperazione propria, e la cooperazione altrui. Mediante il contratto sociale gli individui rinunciano al diritto di far violenza in cambio della sicurezza di essere protetti, e l’ordine sociale risul- ta essere favorevole non soltanto a coloro che lo impon- gono, ma a tutti: il risultato del contratto sociale è quin- di un cambiamento delle regole del gioco. Un secondo esempio significativo si trova in un passo del Discorso sull ’origine della diseguaglianza fra gli uomi- ni di Jean Jacques Rousseau, del 1755. Questa volta le so- cietà umane vengono viste come evoluzioni delle tempo- ranee alleanze rese necessarie dalla caccia di grandi ani- mali, sui quali un individuo isolato non avrebbe potuto avere la meglio. Ma mentre due individui stanno, per esempio, partecipando a una caccia al cervo, può capita- re che uno di essi veda una lepre, che potrebbe cacciare da solo: ecco quindi nascere la tentazione di cacciarla, sulla base della considerazione che, benché un cervo sia meglio di una lepre, una lepre è meglio di niente. E la ten- tazione è rafforzata dalla considerazione che forse anche l’altro cacciatore ha già avvistato una lepre, e abbando- nato la caccia. Altri esempi sono naturalmente forniti da veri e pro- pri giochi, dai quali la teoria ha appunto preso il suo no- me. Essi possono essere giocati non solo per diletto, co-
no CAPITOLO TERZO me le carte o gli scacchi, ma anche per addestramento, come nel. caso del Kriegspiel, che utilizzava carte militari ed elaborati soldatini, e venne considerato l’ispiratore delle strategie vincenti nelle guerre prussiane con l’Au- stria del 1866 e con la Francia nel 1870, e nella guerra giapponese con la Russia del 1905. Il primo lavoro matematico sulla teoria dei giochi £u l’articolo presentato al Congresso Internazionale dei Ma- tematici del 1912 da Ernst Zermelo. In esso egli provò che il gioco degli scacchi (e, più in generale, ogni gioco che non può proseguire all’infinito) è determinato, nel senso seguente: o esiste una strategia che permette al bianco di vincere sempre, o esiste una strategia che per- mette al nero di vincere sempre, o esiste una strategia che permette a entrambi i giocatori di pattare sempre. Il ri- sultato di esistenza è però non costruttivo, nel senso che non dice quale dei tre casi succeda effettivamente: per questo motivo, non ha applicazioni pratiche. I fondamenti della teoria dei giochi vennero posti nel 1921 da Emile Borei, che fu anche ministro della Marina francese. Egli usò il poker come esempio, e affrontò fra l’altro il difficile problema di un trattamento del bluff. Inoltre, Borei pose il problema di determinare in quali casi esista una strategia che si può considerare ottimale, e come fare a trovarla. Una applicazione del teorema del punto fisso di Brouwer permise a John von Neumann di dimostrare, nel 1928, il primo teorema profondo della nuova teoria. Es- so stabilisce che in certi giochi a somma zero, in cui cioè la vincita di un giocatore è uguale e contraria alla perdi- ta dell’altro giocatore, e a in formazione perfetta, in cui cioè ogni giocatore conosce esattamente sia le possibili mosse dell’altro giocatore che le loro conseguenze, esiste una strategia che permette a entrambi i giocatori di mi- nimizzare le loro massime perdite: da cui il nome mini- max. Per ogni sua possibile mossa, ciascun giocatore consi- dera tutte le possibili mosse dell’avversario, e la massima
MATEMATICA APPLICATA III perdita che potrebbe derivargli; egli gioca poi la mossa per cui tale perdita è minima. Questa strategia, che mi- nimizza la massima perdita, è ottimale per entrambi i gio- catori se essi hanno minimax uguali (in valore assoluto) e contrari (in segno): nel caso che tale valore comune sia zero, allora è inutile giocare. Il teorema minimax venne migliorato ed esteso a più riprese da Von Neumann, per esempio a giochi a infor- mazione imperfetta, o con più di due giocatori: quest’ul- timo caso è reso complicato dalla possibilità di coopera- zione fra alcuni giocatori, nella forma di alleanze o coali- zioni. Il lavoro di Von Neumann culminò, nel 1944, nel classico testo La teoria dei giochi e il comportamento eco- nomico, scritto con l’economista Oscar Morgenstern. La più soddisfacente formalizzazione della nozione di strategia ottimale è il concetto di equilibrio di Nash, pro- posto nel 1950 da John Nash: nel caso particolare dei gio- chi a somma zero, esso si riduce al minimax di Von Neu- mann. Nash dimostrò che ogni gioco non cooperativo a due o più giocatori, anche non a somma zero, ammette un equilibrio, e per questo lavoro ottenne il premio No- bel per l’economia nel 1994. Nel caso di due giocatori, un equilibrio di Nash è una situazione in cui entrambi non hanno recriminazioni da fare, nel senso che anche sapendo in anticipo quale sa- rebbe stato il comportamento dell’altro giocatore, essi si sarebbero comportati nello stesso modo. In altre paro- le, la situazione non è migliorabile con atti individuali unilaterali, benché possa in generale esserlo con atti col- lettivi. È abbastanza ovvio che se uno stato non è di equili- brio, allora non è razionale: almeno un giocatore avrà infatti in seguito motivo per pensare che avrebbe potu- to far meglio. L’essere un equilibrio di Nash costituisce quindi una condizione necessaria per un comportamen- to razionale, ma non una condizione sufficiente: ci sono infatti giochi in cui gli equilibri di Nash non sono per niente razionali.
112 CAPITOLO TERZO Un tipico esempio è il dilemma del prigioniero, pro- posto da Albert Tucker nel 1950. La situazione riguarda due sospetti di un crimine, che vengono arrestati, e in- terrogati separatamente: se uno dei due denuncia l’altro, riceverà una taglia e sarà liberato, mentre il complice sarà condannato alla pena intera; se però entrambi si denun- ciano a vicenda, allora entrambi saranno condannati a una pena dimezzata; se invece nessuno dei due parla, en- trambi saranno liberati. L’unico equilibrio di Nash è, in questo caso, che entrambi denuncino il compagno: ma l’equilibrio non è razionale, perché è certamente interes- se comune non parlare. Nella seconda metà del secolo la teoria dei giochi ha assunto un ruolo fondamentale nell’analisi di situazioni di conflitto, e viene regolarmente applicata dai consiglieri militari, economici e politici dei governanti di vari paesi industrializzati, primi fra tutti gli Stati Uniti. 4. Analisi funzionale: l’assiomatizzazione della mecca- nica quantistica di Von Neumann (1932). I problemi della fisica matematica portano in maniera naturale a equazioni differenziali o integrali, in cui una funzione incognita si trova sotto il segno di derivata o di integrale. Metodi per la soluzione di equazioni differen- ziali, dapprima alle derivate ordinarie e poi alle derivate parziali, furono sviluppati già a partire dalla fine del se- colo xvn. I primi passi espliciti per la soluzione delle equazioni integrali, più complicate, furono invece fatti solo nei primi decenni del secolo xix. La teoria generale delle equazioni integrali fu iniziata nell’ultimo decennio del secolo xix da Vito Volterra, e portata a maturità nel primo decennio del secolo xx da David Hilbert. Questi sviluppi dell’analisi misero in luce il fatto es- senziale che, in matematica, spesso si lavora non soltan- to con funzioni che operano su numeri, ma con funzio- nali che operano su funzioni. Per esempio, come le ope-
MATEMATICA APPLICATA 113 razioni di elevamento al quadrato o di estrazione di radi- ce quadrata assegnano esplicitamente a un numero un al- tro numero, appunto il suo quadrato o la sua radice qua- drata, cosi le operazioni di derivazione e di integrazione (indefinita) assegnano a una funzione un’altra funzione, appunto la sua derivata o il suo integrale. Analogamen- te, come un’equazione definisce implicitamente uno o più numeri, cioè le sue soluzioni, cosi un’equazione diffe- renziale o integrale definisce implicitamente una o più funzioni, cioè le sue soluzioni. Proprio le difficoltà del trattamento di questi funziona- li, soprattutto nel calcolo variazionale e nella teoria delle equazioni integrali, portò all’esigenza di sviluppare una lo- ro teoria astratta e indipendente, che facesse emergere le loro proprietà: teoria che venne appunto chiamata analisi funzionale, per indicare che essa tratta di funzionali, e di- stinguerla dall’analisi reale (o complessa), che tratta inve- ce di funzioni che operano su numeri reali (o complessi). Gli ambienti naturali per lo sviluppo dell’analisi reale (o complessa) sono gli spazi euclidei, i cui punti vengo- no identificati con le loro coordinate cartesiane. Nel ca- so per esempio di uno spazio a n dimensioni, un punto viene identificato con n numeri x15..., x„, e la distanza di un tale punto dall’origine viene calcolata con il teorema di Pitagora, mediante l’espressione Nel suo studio sulle equazioni integrali, Hilbert do- vette lavorare con funzioni che si potevano esprimere me- diante una somma infinita (detta serie di Fourier), con in- finiti coefficienti x1,x2,...,e scopri che la condizione che permetteva a queste funzioni di essere trattate nella sua teoria era che la somma fosse finita. Ma se questa somma è finita, altrettanto lo è la sua radice quadrata: queste successioni di numeri si pos-
CAPITOLO TERZO 114 sono dunque pensare come le coordinate di punti in uno spazio euclideo a «infinite dimensioni», per il quale il teo- rema di Pitagora continua a valere. Nel 1907 Erhard Sch- midt e Maurice Fréchet introdussero allora lo spazio di Hilbert H, i cui elementi sono i punti aventi infinite coor- dinate che soddisfano alla condizione appena descritta. Poiché però le successioni erano solo un modo, per Hilbert, di trattare funzioni, Schmidt e Fréchet intro- dussero anche direttamente uno spazio funzionale L2, i cui punti sono le funzioni (definite su intervallo) che sod- disfano un analogo della condizione di Hilbert, e cioè il fatto che l’integrale di Lebesgue del loro quadrato sia fi- nito: da cui il nome L2. Che lo spazio di Hilbert H e lo spazio funzionale L2 siano in realtà la stessa cosa, è il con- tenuto del cosiddetto teorema di rappresentazione di Frie- drich Riesz e Ernst Fischer. Gli spaziHeL2 sono entrambi casi particolari di una vasta classe di spazi di Banacb, introdotti nel 1922 da Ste- fan Banach, che risultarono fornire la corretta assioma- tizzazione delle proprietà necessarie per lo sviluppo del- la teoria delle equazioni integrali. In particolare, le co- struzioni di soluzioni di queste equazioni mediante successive sostituzioni, secondo una tecnica anticipata già nel 1832 da Joseph Liouville, risultarono essere casi particolari di un generale teorema del punto fisso di Ba- nach. Ciò che fece la fortuna dell’analisi funzionale non fu però tanto la sua adeguatezza per il trattamento della teo- ria delle equazioni integrali, quanto la sua inaspettata e immediata applicazione alla meccanica quantistica. Essa era infatti stata originariamente formulata, con motiva- zioni puramente euristiche, in due formalismi compieta- mente differenti, benché risultati poi equivalenti: me- diante matrici infinite di osservabili, da Werner Heisen- berg nel 1925, che per questo lavoro ottenne il premio Nobel nel 1932-, e mediante funzioni d’onda, da Erwin Schròdinger nel 1926, che per questo lavoro ottenne il premio Nobel nel 1933.
MATEMATICA APPLICATA 115 Già nell’inverno del 1926, nello spirito del suo sesto problema, Hilbert stesso aveva cercato di estrarre dai due formalismi una formulazione assiomatica teoricamente soddisfacente, e da cui entrambi derivassero. Le sue idee non funzionarono direttamente, perché la teoria delle di- stribuzioni che le avrebbe giustificate non era ancora sta- ta sviluppata, ma il suo assistente John von Neumann le riformulò nel 1927, in termini di spazi H o L2: nel primo caso si ottiene la versione della meccanica quantistica di Heisenberg, nel secondo quella di Schródinger, e l’equi- valenza delle due è una conseguenza del teorema di rap- presentazione di Riesz e Fischer. Nella formulazione finale di Von Neumann, culmina- ta nel 1932 nel classico I fondamenti matematici della mec- canica quantistica, gli infiniti stati di un sistema quanti- stico costituiscono le coordinate di un punto in uno spa- zio di Hilbert, e le grandezze fisiche del sistema (per esempio, posizione e quantità di moto) sono rappresen- tati da particolari funzionali; o, nella terminologia usua- le, da particolari operatori. La fisica della meccanica quantistica viene cosi ridotta alla matematica di partico- lari operatori (lineari hermitiani) su spazi di Hilbert: per esempio, il famoso principio di indeterminazione di Hei- senberg, secondo cui posizione e quantità di moto di una particella non possono essere simultaneamente misurati con precisione arbitraria, si traduce nella non commuta- tività dei due operatori corrispondenti. Stimolato da queste applicazioni fisiche, lo studio de- gli operatori che rappresentano le grandezze fisiche di un sistema divenne un’importante branca della matematica moderna, sotto il nome di algebre di operatori di Von Neu- mann, Queste algebre si possono fattorizzare in vari mo- di: per esempio, in due insiemi di operatori, gli elementi del primo dei quali commutano con gli elementi del se- condo. Oltre a questi fattori, chiamati di tipo I, ce ne so- no di altri due tipi: II e III. Una classificazione completa dei fattori di tipo III è stata data da Alain Connes, che ha ottenuto per questo lavoro una medaglia Fields nel 1983.
CAPITOLO TERZO Il6 E da uno studio dei fattori di tipo II Vaugham Jones ha derivato i suoi invarianti per i nodi, di cui parleremo in seguito, e per questo lavoro ha anch’egli ottenuto una me- daglia Fields nel 1990. Quanto agli spazi di Banach, la loro teoria si imbattè presto in una lunga serie di problemi di difficoltà appa- rentemente insormontabile, il che ne provocò un tem- poraneo declino. La rinascita avvenne a partire dagli an- ni ’50, quando le nuove metodologie introdotte dagli esponenti della scuola francese, da Laurent Schwartz ad Alexandre Grothendieck, medaglie Fields nel 1990 e 1966, permisero finalmente la soluzione di molti proble- mi classici. L’argomento sta ora vivendo una terza giovi- nezza, testimoniata dall’assegnazione a Jean Bourgain e William Gowers della medaglia Fields nel 1994 e 1998. Il primo ha determinato la massima sezione di uno spazio di Banach che assomiglia allo spazio di Hilbert. Il secon- do ha dimostrato che l’unico spazio di Banach con mol- ta simmetria (cioè, isomorfo a ogni suo sottospazio) è lo spazio di Hilbert, e che esistono spazi di Banach con po- ca simmetria (cioè, non isomorfi a nessun loro sottospa- zio proprio). 5. Teoria delle probabilità: l1 Il' assiomatizzazione di Kol- mogorov (1933). I primi problemi di natura probabilistica sorsero dal- la considerazione di giochi d’azzardo, in particolare le- gati ai dadi. Uno non banale si trova citato nella Summa di Luca Pacioli, del 1494: se in un gioco la vittoria si ot- tiene quando uno di due giocatori raggiunge per primo n punti, ma il gioco viene interrotto quando essi ne han- no rispettivamente raggiunti p e q, come deve essere di- visa la posta fra loro? Il problema fu discusso da Cardano nel Libel de ludo aleae, del 1526, in cui è fra l’altro esplicitamente enun- ciata la regola che il calcolo della probabilità congiunta
matematica APPLICATA 117 di due eventi indipendenti si ottiene moltiplicando le lo- ro probabilità individuali. La corrispondenza sul problema tra Blaise Pascal e Pierre de Fermat, nel 1654, segna la data di nascita uffi- ciale della teoria delle probabilità. La soluzione richiese alcune proprietà del cosiddetto triangolo di Pascal, ov- vero dei coefficienti dello sviluppo binomiale: si tratta in- fatti di calcolare le probabilità di un giocatore di vincere tutti i rimanenti punti, tutti meno uno, tutti meno due, e cosi via, fino al punteggio minimo che, sommato ai pun- ti che già ha, gli permette di vincere la partita. Nel 1656 Christian Huygens pubblicò la soluzione di Pascal, e introdusse il concetto di aspettativa, che è quan- to ci si può aspettare di vincere in media giocando un gio- co più volte, e corrisponde a quanto si dovrebbe essere disposti a pagare per partecipare al gioco. Per Huygens una misura dell’aspettativa di guadagno in una data si- tuazione era il prodotto del guadagno ottenibile per la probabilità di ottenerlo; e una misura dell’aspettativa di guadagno totale era la somma delle aspettative di guada- gno per ogni possibile situazione. Un paradosso della nozione di aspettativa fu scoperto da Daniel Bernoulli, nel 1725: se un casinò fosse dispo- sto a pagare una posta di 2" lire a un giocatore se esce te- sta per la prima volta all’/7-esimo tiro, quanto dovrebbe essere disposto il giocatore a pagare per poter partecipa- re al gioco? Poiché a ogni tiro il guadagno si raddoppia ma la pro- babilità di arrivarci si dimezza, l’aspettativa di guadagno a ogni tiro è sempre la stessa: l’aspettativa di guadagno totale è dunque infinita. Il giocatore dovrebbe allora es- sere disposto a giocare tutto ciò che ha per poter parte- cipare: il che contrasta con l’ovvia osservazione che più egli paga per giocare, minore è la probabilità che egli rie- sca a guadagnare più di quanto ha pagato. La soluzione del dilemma proposta da Bernoulli sta nel fatto che il valore del denaro non è assoluto, e dipen- de invece da quanto se ne ha: una stessa somma vale tan-
118 CAPITOLO TERZO to per chi ne ha molto meno, e poco per chi ne ha molto di più. Per calcolare l’aspettativa di guadagno si deve dunque moltiplicare la probabilità non per il guadagno effettivo, ma per quanto esso vale per il giocatore, cioè per la sua utilità: supponendo per esempio che l’utilità decresca in maniera logaritmica, il guadagno totale cessa di essere infinito per diventare molto piccolo, e il para- dosso scompare. Il primo libro sulla teoria della probabilità fu l’Ars conjectandi di Jacques Bernoulli, zio di Daniel, pubbli- cato nel 1713. In esso venne formulata la legge dei gran- di numeri: se un evento accade m volte su n tentativi, al crescere del numero di tentativi il rapporto si avvi- cina sempre più alla probabilità dell’evento. Questa legge permette in teoria di calcolare probabilità a posteriori, quando non sia possibile effettuare a priori il computo dei casi favorevoli e possibili. In pratica, però, rimane il problema di inferire stati- sticamente la probabilità di un evento dalla conoscenza parziale del fatto che esso è accaduto m volte su n tenta- tivi. Il problema fu affrontato nel 1761 da Thomas Bayes, e la sua soluzione richiese la formulazione della legge di Bayes: la probabilità che due eventi accadano simulta- neamente è il prodotto della probabilità che uno accada assolutamente, per la probabilità che l’altro accada rela- tivamente a esso. Nel 1777 Georges Louis Ledere, conte di Buffon, con- siderò il seguente problema dell’ago: dato un foglio a ri- ghe, qual è la probabilità che un ago di lunghezza pari a metà della distanza delle righe caschi su una di esse, quan- do venga lasciato cadere a caso sul foglio? Poiché la ca- duta dell’ago dipende dal suo angolo di inclinazione ri- spetto alle righe, ci si può aspettare che la risposta di- penda in qualche modo da Ti: puntualmente, Buffon dimostrò che la probabilità è J_. Per la legge dei grandi numeri, si può dunque approssimare il valore di ti fa- cendo un gran numero di tiri con l’ago: questa fu la pri-
MATEMATICA APPLICATA 119 ma applicazione di quello che oggi viene chiamato meto- do Montecarlo, che consiste nel calcolare una costante di- mostrando dapprima che essa è la probabilità teorica di un certo evento, ed eseguendo poi empiricamente un gran numero di simulazioni pratiche di quell’evento. Nel 1809 Gauss trovò la famosa curva a campana, di equazione e~x’, che descrive la distribuzione di probabilità di errori medi nelle osservazioni (figura 27): la curva è sim- metrica, perché è ugualmente probabile che l’errore sia per difetto o per eccesso; ed essa si appiattisce verso l’infinito, perché la probabilità di un errore molto grande è molto piccola. Naturalmente, ci sono molte curve che hanno ta- i proprietà: come appare dall’esponente, Gauss derivò la sua in base al metodo dei minimi quadrati, secondo il qua- le la migliore approssimazione a un insieme di osservazio- ni è quella che minimizza il quadrato degli errori. Tutti questi sviluppi confluirono nel 1812 nel trattato Teoria analitica delle probabilità di Pierre Simon de La- olace. Egli sistematizzò l’argomento, definendo la pro- babilità di un evento come il rapporto fra i casi favore- voli e quelli possibili, provando che l’area definita dalla gaussiana è \ 7t, e considerando applicazioni di ogni ge- nere alle scienze naturali e sociali. Se la probabilità aveva dunque raggiunto la sua matu- rità, ancora ne mancava però una definizione astratta: la Figura 27. Curva di Gauss.
120 CAPITOLO TERZO richiesta divenne parte del sesto problema di Hilbert, e fu soddisfatta nel 1931 da Andrei Kolmogorov, premio Wolf nel 1980, che usò inaspettatamente allo scopo il concet- to di misura di Lebesgue. L’idea di Kolmogorov fu di definire assiomaticamente la probabilità non solo di singoli eventi, ma di insiemi di eventi. Si- tratta cioè di assegnare a questi insiemi un nu- mero compreso fra 0 e 1, con le seguenti proprietà: l’insie- me vuoto di eventi ha probabilità 0; l’insieme di tutti i pos- sibili eventi ha probabilità 1 ; e un insieme di eventi che si ottiene «sommando» fra loro una quantità numerabile di insiemi indipendenti di eventi, ha una probabilità pari alla somma delle probabilità di questi {additività numerabile). Nel caso che ci sia soltanto una quantità finita di even- ti, la definizione precedente permette di assegnare una probabilità anche a eventi indipendenti ed equiprobabi- i singoli. Per esempio, se gli eventi sono n, allora l’insie- me totale deve avere da un lato probabilità 1, e dall’altro lato la somma delle probabilità degli eventi singoli: que- sti dovranno allora avere probabilità X. 6. Teoria dell’ottimizzazione: il metodo del simplesso diDantzig (1947). Fattori contrapposti ma convergenti hanno portato, nella prima metà del secolo xx, allo sviluppo della teoria della programmazione economica. In Unione Sovietica la pianificazione fu una conseguenza teorica della nasci- ta del comuniSmo, e si concretizzò nella pratica dei pia- ni quinquennali. Negli Stati Uniti essa divenne invece una necessità pratica dello sviluppo del capitalismo, e partorì la teoria della ricerca operativa per la gestione di grandi imprese. Fu soprattutto durante lo sforzo bellico della seconda guerra mondiale che emersero problemi di natura tecni- ca, i cui tentativi di soluzione avrebbero portato alla co-
MATEMATICA APPLICATA 121 struzione dei calcolatori da un lato, e alla programmazio- ne lineare dall’altro. Quest’ultima, in particolare, si pro- pone di trovare la migliore allocazione di un certo nu- mero di risorse, secondo un determinato criterio di otti- mizzazione: l’aggettivo «lineare» si riferisce alla carat- teristica essenziale del problema, che è di imporre vincoli fra le risorse espressi in forma di disequazioni lineari, e di assegnare un criterio di ottimizzazione espresso in for- ma di equazione lineare. Nel caso di due sole risorse, che si possono allora con- siderare come punti di un piano, ciascuna disequazione individua un semipiano. Escludendo i casi in cui o non c’è soluzione (intersezione vuota) o non c’è soluzione ot- timale (intersezione illimitata), l'insieme delle disequa- zioni individua un poligono convesso, i cui punti costi- tuiscono le soluzioni del problema: fra queste, l’ottimiz- zazione richiede di scegliere quella migliore, secondo il criterio assegnato. Per trovare questa soluzione, non è co- munque necessario esaminare tutte le possibili soluzioni, e confrontare fra loro i valori del criterio di ottimizza- zione: basta considerare i vertici (poiché il poligono è convesso, ogni punto interno sta su un segmento i cui estremi stanno sul perimetro; e poiché il criterio è linea- re, il valore massimo che esso assume sul segmento è in uno degli estremi, cioè sul perimetro, e il valore massimo sul perimetro è in uno dei vertici). Nel caso di un gran numero di risorse e di vincoli, in cui il poligono diviene un politopo (e dunque un parti- colare tipo di simplesso) in uno spazio multidimensiona- le, anche limitarsi all’esame di tutti i suoi vertici può però presentare difficoltà insormontabili. La soluzione classi- ca al problema fu il metodo del simplesso, sviluppato ne- gli anni ’40 da George Dantzig, Leonid Kantorovich e Tjalling Koopmans, e per il quale gli ultimi due hanno ot- tenuto il premio Nobel per l’economia nel 1975. L’idea del metodo, divenuto per la sua efficienza pra- tica uno degli algoritmi più usati nella storia della mate- matica applicata, è di partire da un particolare vertice del
122 CAPITOLO TERZO politopo, esaminare tutti i vertici a cui esso è collegato, e spostarsi su quello che ha il miglior valore del criterio di ottimizzazione. Continuando a procedere in questo mo- do, si raggiunge un valore che è localmente ottimale: il fatto essenziale è che, essendo il politopo convesso, un ottimo locale è anche un ottimo globale, e il metodo per- mette dunque sempre di arrivare al risultato migliore in assoluto. Una delle ipotesi necessarie al funzionamento della programmazione lineare è che le risorse possano assume- re valori frazionari: i vertici del politopo determinato dal- le disequazioni sono infatti ottenuti mediante soluzioni di sistemi di equazioni lineari, e possono in generale assu- mere valori non interi. Se però le risorse devono solo as- sumere valori interi, come succede spesso in pratica, non basta ottimizzare il problema come se le risorse potesse- ro essere frazionarie, e arrotondare poi le soluzioni: suc- cede infatti, a volte, che piccole variazioni facciano salta- re l’ottimo da un vertice all’altro. E stato dunque neces- sario estendere la programmazione lineare mediante tecniche che permettono di risolvere questi problemi, svi- luppate nell’ambito della programmazione intera. Un’altra estensione necessaria sono state le tecniche per la soluzione di problemi non lineari. In questo caso il metodo del simplesso non funziona per un motivo di- verso, e cioè perché senza la linearità (e dunque la con- vessità) non è più vero che un ottimo locale è sempre un ottimo globale. Metodi generali per la soluzione di pro- blemi non lineari non esistono, ma tecniche efficaci e po- tenti sono state sviluppate, per esempio nell’ambito del- la programmazione dinamica. 7. Teoria dell’equilibrio generale: il teorema di esi- stenza di Arrow e Debreu (1954). Nel 1776, lo stesso anno della rivoluzione borghese americana, l’economista scozzese Adam Smith pubblicò
matematica applicata 123 il trattato Sulla ricchezza delle nazioni. Per giustificare il li- berismo del laissez faire, egli introdusse la finzione retori- ca di una «mano invisibile» che guiderebbe il comporta- mento individualistico degli agenti economici verso fini da essi non previsti, e che risulterebbero essere social- mente utili. Purtroppo, la giustificazione del ragiona- mento si basava su un circolo vizioso, condensato nell’ot- timistica massima: «tutto ciò che c’è, è giusto». I primi tentativi di fondare una scienza sulla filosofia economica di Smith dovettero attendere il secolo xix. Nel 1838 Antoine-Augustine Cournot introdusse l’uso degli strumenti del calcolo infinitesimale, dalle funzioni alle derivate, per descrivere i concetti fondamentali dell’eco- nomia. E nel 1874 Léon Walras stabili un parallelo fra economia e meccanica, in cui la legge del mercato e l’e- quilibrio economico venivano considerati gli analoghi della legge di gravitazione e dell’equilibrio meccanico: un parallelo esteso a fine secolo da Vilfredo Pareto, che con- siderò i soggetti economici individuali come gli analoghi delle particelle. In particolare, Walras enunciò una teoria che sostitui- va all’ineffabile mano invisibile di Smith l’interazione fra domanda e offerta, e congetturava che lo sviluppo del mercato tendesse naturalmente verso un loro equilibrio. Matematicamente, si tratta di esprimere per ciascuna mer- ce la domanda e l’offerta in funzione dei prezzi e delle di- sponibilità di tutte le merci, e di imporre che le differen- ze fra domanda e offerta siano sempre nulle: in questo ca- so, di ogni merce verrebbe prodotta esattamente la stessa quantità che viene venduta. I problemi da risolvere sono: anzitutto, desistenza e d unicità di un equilibrio, cioè di un sistema di prezzi che soddisfa tutte le equazioni; inoltre, la convergenza automatica del sistema verso l’equilibrio, in base alla legge della domanda e dell’offerta, secondo cui i prezzi salgono quando la domanda cresce, e scendo- no quand’essa diminuisce; infine, la stabilità dell’equili- brio, nel senso che se anche il sistema se ne discosta mo- mentaneamente, tende comunque a ritornarvi.
124 CAPITOLO TERZO Naturalmente, tutto dipende dalla particolare forma delle funzioni che esprimono la domanda e l’offerta da un lato, e la legge della domanda e dell’offerta dall’altro. Walras arrivò alla definizione di un sistema di equazioni non lineari, e dedusse l’esistenza di una soluzione dal fat- to, certo non sufficiente, che il numero di equazioni fos- se uguale al numero delle incognite. Nel 1933 un diver- so sistema fu formulato dall’economista Karl Schlesinger e dal matematico Abraham Wald, che diedero per la prima volta una dimostrazione formale dell’esistenza di equilibri. Nel 1938 John von Neumann introdusse due idee in- novative. Anzitutto, egli riformulò il problema in termi- ni non di equazioni, come si era fatto finora, ma di dise- quazioni: il che apri la strada per un’analoga formulazio- ne dei problemi di ottimizzazione, e della soluzione di quelli lineari mediante il metodo del simplesso di Dant- zig. Inoltre, Von Neumann dimostrò l’esistenza di un equilibrio per un particolare sistema riducendolo a un problema di minimax, e utilizzando quindi una versione del teorema del punto fisso di Brouwer. Le idee di von Neumann, sia sulla teoria dei giochi che sull’equilibrio, raggiunsero la loro formulazione definitiva nel 1944, nel già citato libro La teoria dei giochi e il comportamento eco- nomico. La caratteristica essenziale della dimostrazione di esi- stenza di equilibrio di Von Neumann fu di spostare l'at- tenzione dalle tecniche del calcolo differenziale classico alla topologia, e dunque dai sistemi dinamici ai sistemi statici. Utilizzando questo nuovo approccio, e usando in particolare un’estensione del teorema del punto fisso di Brouwer dimostrata nel 1941 da Kakutani, nel 1954 Ken- neth Arrow e Gerard Debreu riuscirono finalmente a di- mostrare l’esistenza di un equilibrio per le equazioni di Walras, nel caso in cui la legge della domanda e dell’of- ferta è formulata nel modo seguente: la velocità di varia- zione del prezzo di ciascuna merce, e dunque la sua de- rivata rispetto al tempo, è proporzionale all’eccesso del-
MATEMATICA APPLICATA 125 la domanda, cioè alla differenza fra domanda e offerta di quella merce. Per questo lavoro Arrow e Debreu otten- nero il premio Nobel per l’economia nel 1972 e 1983. L’utilizzazione del teorema del punto fisso di Brouwer permise dunque ad Arrow e Debreu di aggirare le diffi- coltà connesse allo studio dell’economia attraverso i si- stemi dinamici, che negli anni ’50 non erano ancora sta- ti sufficientemente sviluppati. Essi sono però tornati in voga nella seconda metà del secolo, grazie anche alla pos- sibilità di simulazioni computerizzate, e nel 1982 Stephen Smale, medaglia Fields nel 1966 per altri lavori che cite- remo in seguito, ha chiuso il cerchio dello sviluppo sto- rico, ridimostrando il teorema di Arrow e Debreu con i metodi originariamente intesi da Walras, e senza nessun uso di teoremi del punto fisso. Naturalmente, per poter trarre dal teorema di esisten- za dell’equilibrio conclusioni politiche, che rivendichino in qualche modo il liberismo alla Adam Smith, sarebbe necessario dimostrarlo in maniera piu generale che non nella formulazione semplificata di Arrow e Debreu: in particolare, in una situazione in cui i mercati interagi- scono fra loro, e la variazione del prezzo di ciascuna mer- ce dipende (per esempio, in maniera lineare) dall'ecces- so di domanda di tutte le merci, e non soltanto di quella in questione. Purtroppo per il capitalismo, in queste condizioni più generali un mercato tende autonomamente verso la situa- zione di equilibrio soltanto nel caso, piuttosto ristretto, di due sole merci. Nel 1960 Herbert Scarf ha dimostrato che bastano invece tre sole merci a far sì che il sistema possa essere globalmente instabile, e non risulti affatto guidato dalla fantomatica mano invisibile. E nel 1972 Hugo Son- nenschein ha dimostrato che l’eccesso di domanda globa- le di un mercato può assumere i valori di una qualunque funzione continua: gli equilibri, cioè gli zeri della funzio- ne, possono dunque non esistere; e se anche esistono, non è detto che il mercato vi tenda necessariamente, o vi ritorni automaticamente quando se ne allontana.
I2Ó CAPITOLO TERZO Se una conclusione politica si può trarre da questi svi- luppi matematici, essa è dunque che la legge del merca- to non sembra affatto adeguata a condurlo in una condi- zione di equilibrio, e che solo la pianificazione può farlo: con buona pace di Adam Smith e dei suoi epigoni di fi- ne Novecento, da Margaret Thatcher a Ronald Reagan. 8. Teoria dei linguaggi formali: la classificazione di Chomsky (19d 7). Uno dei più significativi punti di svolta della lingui- stica moderna fu il Corso di linguistica generale di Ferdi- nand de Saussure, tenuto negli anni fra il 1906 e il 1911, e pubblicato postumo nel 1916. In esso venne delineato un approccio strutturale alle lingue naturali, contrappo- sto agli studi storici, filologici e comparati in voga fino ad allora. Saussure vedeva il linguaggio come un sistema costituito di due parti: da un lato, una struttura fissa, so- ciale e immutabile, di regole per la manipolazione di se- gni (sonori o scritti); dall’altro lato, un uso variabile, in- dividuale e creativo, della struttura per l’espressione dei significati. Le idee di Saussure indicarono la possibilità di uno stu- dio matematico della parte strutturale della linguistica, e più in generale delle scienze umane: egli infatti precorse e ispirò lo strutturalismo, che ebbe come scopo la ricer- ca di strutture profonde nelle manifestazioni del vissuto umano, e si concretizzò nell’antropologia di Claude Lé- vi-Strauss, la psicoanalisi di Jacques Lacan, e la psicolo- gia di Jean Piaget. Dal canto suo, anche la concezione assiomatica e for- malista della matematica portò, naturalmente e indipen- dentemente, a idee parallele a quelle di Saussure: cioè, che l’attività linguistica si possa ridurre alla generazione di sequenze di simboli secondo regole formali, e che i se- gni siano legati ai significati in maniera convenzionale e arbitraria.
MATEMATICA APPLICATA 127 Non a caso, la prima formulazione di regole astratte e formali per la descrizione delle strutture linguistiche ri- sale al matematico Axel Thue, che le espresse nel 1914 in termini di produzioni grammaticali del tipo da intendere nel senso che ogni volta che si trova un’oc- correnza di x in una parola, la si può sostituire con un’oc- correnza di y. Thue definì una grammatica come un in- sieme di produzioni del tipo precedente, e ne formulò il cosiddetto problema della parola-, decidere se due parole si possono trasformare una nell’altra, in base alle produ- zioni della grammatica. Nel 1921 Emil Post arrivò, indipendentemente, a una formulazione simile. E dimostrò un risultato sorpren- dente, che oggi si può esprimere nel modo seguente: i lin- guaggi che ammettono una grammatica di Thue sono esattamente quelli che si possono generare mediante uno qualunque dei tipici linguaggi di programmazione dei calcolatori. In altre parole, semplici produzioni gram- maticali sono sufficienti a descrivere tutto ciò che i più complicati programmi per calcolatori possono fare: in particolare, tutti i possibili tipi di linguaggio formale o meccanico. Rimaneva da trattare il caso dei linguaggi umani. A questo si dedicò nel 1957 il linguista Noam Chomsky, che nelle Strutture sintattiche compì i primi passi di un lavo- ro che avrebbe dovuto portare alla descrizione comple- ta di una grammatica di Thue per l’inglese: un program- ma che non è mai stato completato, e la cui difficoltà sembra aver indicato una insufficienza strutturale del- l’approccio puramente matematico allo studio del lin- guaggio naturale. E lavoro di Chomsky portò comunque a un risultato fondamentale per la teoria dei linguaggi formali, e cioè a una loro classificazione in base al tipo di produzioni grammaticali permesse nella loro grammatica. E poiché gli stessi tipi di linguaggi risultarono poi essere esprimi-
128 CAPITOLO TERZO bili anche in base al tipo di calcolatori in grado di gene- rarli, il risultato costituì il punto di partenza della teoria dei linguaggi formali per calcolatori, cioè della linguisti- ca informatica. La classificazione di Chomsky isola quattro tipi di lin- guaggi: universali, sensibili al contesto, indipendenti dal contesto, e regolari. Sostanzialmente, nel primo tipo non si pongono restrizioni al tipo di produzioni grammatica- li, e si permette dunque di sostituire una parte qualun- que di una parola con un’altra parte. Nel secondo tipo si permette la sostituzione di una parte di una parola sol- tanto in particolari contesti, specificati dalle produzioni. Nel terzo tipo si permette di sostituire soltanto una sin- gola lettera con una parte di una parola. Nel quarto tipo si permette di sostituire una singola lettera soltanto con un’altra singola lettera. La classificazione ha poi un corrispettivo nei tipi di cal- colatori o automi in grado di generare i vari linguaggi: universali, linearmente limitati, push-down, e finiti. So- stanzialmente, nel primo tipo non si pongono restrizioni alla memoria del calcolatore. Nel secondo tipo non si per- mette al calcolatore di usare una memoria piu grande del- l’input. Nel terzo tipo si permette al calcolatore di me- morizzare dati soltanto come nelle pile dei vassoi dei self- service, in cui i primi vassoi posti sulla pila saranno gli ultimi a essere tolti, e viceversa. Nel quarto tipo si per- mette al calcolatore soltanto di leggere, ma non di me- morizzare dati. Benché dal punto di vista linguistico le grammatiche più interessanti siano quelle sensibili al contesto, dal pun- to di vista informatico sono risultate essere più utili quel- le indipendenti dal contesto e quelle regolari, e la loro teoria è oggi divenuta una parte integrante dell’informa- tica teorica. Quanto alla matematica pura, le applicazioni più inte- ressanti della linguistica formale riguardarono il proble- ma della parola proposto da Thue. Molte strutture alge- briche si presentano infatti naturalmente sotto forma di
MATEMATICA APPLICATA 129 produzioni, per esempio gruppi e semigruppi (che sono una versione più debole dei gruppi, in cui non si richie- de l’esistenza degli inversi). Nel 1944 Post e nel 1947 Anatoly Markov, dimostra- rono che non esiste nessun algoritmo per decidere il pro- blema della parola per i semigruppi: il che costituì il pri- mo esempio di indecidibilità di un problema non arti- ficiale, e mostrò che le limitazioni dei sistemi formali scoperte da Godei, Church e Turing riguardano non sol- tanto i fondamenti teorici, ma anche la pratica matema- tica. Nel 1955 Pavel Novikov e nel 1959 William Boone, dimostrarono che anche il più difficile problema della pa- rola per i gruppi è indecidibile. A causa della connessio- ne con i gruppi fondamentali della topologia algebrica, di cui parleremo in seguito, questo risultato portò poi al- l’indecidibilità di molti problemi topologici: per esem- pio, se una superficie è connessa, o se due superfici sono topologicamente equivalenti. 9. Teoria dei sistemi dinamici: il teorema KAM (1962). Lo studio matematico del moto dei corpi fu reso teo- ricamente possibile dalle scoperte di Newton, negli anni 1664-66, del calcolo infinitesimale da un lato, e delle tre Aggz del moto dall’altro: il principio d’inerzia, la famosa equazione F = ma, e il principio di azione e reazione. Nel caso particolare del moto dei corpi celesti, la forza in gio- co è specificata dalla legge di gravitazione universale: l’at- trazione esercitata da un corpo è proporzionale alla sua massa, e inversamente proporzionale al quadrato della sua distanza. Per esempio, nel primo libro dei Principia Newton di- mostrò che il moto di un pianeta attorno al sole obbedi- sce alle tre leggi di Keplero, enunciate nel 1618: l’orbita è ellittica, con il sole in uno dei fuochi; l’area spazzata è pro- porzionale al tempo impiegato a spazzarla; e il quadrato
130 CAPITOLO TERZO dell’anno planetario è (all’incirca) proporzionale al cubo della distanza media del pianeta dal sole. In pratica, però, i pianeti non sono solo soggetti alla forza gravitazionale del sole, ma si influenzano a vicen- da: il che fa sì che le loro orbite non siano né perfet- tamente ellittiche, né necessariamente chiuse. Inoltre il sistema solare è costituito, oltre che dal sole e dai nove pianeti, da un numero imprecisato di satelliti, comete e asteroidi: il problema del suo moto non è dunque per niente ovvio. Il caso del sole e di un pianeta è molto speciale, per- ché uno dei due corpi ha una massa trascurabile rispetto all’altro: si può dunque supporre che quello grande stia fermo, e l’altro gli ruoti attorno. Newton mostrò che la soluzione è comunque simile anche nel caso generale: en- trambi i corpi si muovono in orbite ellittiche, con il bari- centro del sistema in un fuoco comune. Risolto cosi il caso di due corpi, il passo successivo di- venne la soluzione del problema dei tre corpi, di cui sono esempi particolarmente interessanti il sole, la terra e la lu- na, o il sole e due pianeti. Soluzioni approssimate si pos- sono ottenere risolvendo dapprima il problema per due corpi, e perturbando poi la soluzione in modo da tener conto dell’influsso del terzo corpo: questo metodo fu usa- to da Newton nel 1687 per calcolare la perturbazione del sole sul moto della luna attorno alla terra, e da Euler nel 1748 per calcolare le perturbazioni reciproche di Giove e Saturno nel loro moto attorno al sole. Soluzioni esatte di casi speciali del problema dei tre corpi vennero trovate da Joseph Louis Lagrange nel 1772. Per esempio, egli provò che è possibile avere tre corpi che si muovono in tre orbite ellittiche, con il bari- centro del sistema in un fuoco comune. Oppure, che se tre corpi si trovano sui vertici di un triangolo equilatero, il triangolo ruota attorno al baricentro del sistema, e i cor- pi rimangono ancorati ai vertici: un caso che, come si sco- pri nel 1906, è realizzato dal sistema costituito dal sole, da Giove e dall’asteroide Achille.
MATEMATICA APPLICATA 131 Fra il 1799 e il 1825 apparvero i cinque volumi della Meccanica celeste di Laplace, che costituirono il corona- mento di un secolo e mezzo di scoperte. In particolare, Laplace potè dichiarare che l’evoluzione passata e futu- ra dell’universo si sarebbe potuta calcolare compieta- mente, se solo fosse stata nota la posizione e la velocità di ciascun corpo in un singolo istante. Nonostante l’ottimismo di Laplace, rimanevano però aperti due problemi fondamentali. Da un lato, la solu- zione esatta del caso generale del problema di tre o più corpi. Dall’altro lato, la questione della stabilità delle so- luzioni: per esempio, se piccole perturbazioni del moto di un pianeta possano soltanto produrre piccole varia- zioni della sua orbita, o siano invece in grado di mandar- lo completamente alla deriva. In particolare, se l’effetto cumulativo delle perturbazioni reciproche dei vari pia- neti sia sufficiente a sbalzarne qualcuno fuori orbita, ed eventualmente fuori dal sistema solare, o se invece essi si manterranno sempre sostanzialmente nella situazione at- tuale. Il problema della stabilità del sistema solare arrivò fi- no alle orecchie del re di Svezia, Oscar II, che lo pose nel- la lista dei problemi la cui soluzione avrebbe permesso di vincere uno speciale premio, istituito nel 1885 per «ono- rare il suo sessantesimo genetliaco, e fornire una prova del suo interesse per l’avanzamento delle scienze mate- matiche». Il premio fu assegnato nel 1889 a Poincaré, che non riuscì a decidere se il sistema solare sia stabile o no, ma fece fare un salto di qualità allo studio dei sistemi dina- mici. Egli introdusse quelli che lui stesso chiamò, nel ti- tolo di una trilogia uscita fra il 1892 e i 1899,1 nuovi me- todi della meccanica celeste-, in particolare, lo studio to- pologico delle equazioni differenziali non lineari, che fino ad allora erano state accantonate per la loro difficoltà. La distinzione fra orbite stabili e instabili è collegata, in maniera insospettabile, a problemi di teoria dei nu- meri. Per esempio, il rapporto fra gli anni planetari di
CAPITOLO TERZO Giove e Saturno è di 5 a 2, e quindi un numero raziona- le: il che fa si che ogni 10 anni i due pianeti si ritrovino nelle stesse posizioni, e che le loro perturbazioni reci- proche possano in teoria amplificarsi come in un effetto di risonanza, fino a produrre effetti destabilizzanti. La traduzione matematica della difficoltà è il cosid- detto problema dei piccoli divisori-, esprimendo la pertur- bazione reciproca dei due pianeti in forma di somma in- finita (una cosiddetta serie di Fourier), il rapporto razio- nale ~ fa si che molti dei coefficienti dei termini della somma abbiano piccoli divisori, e siano dunque molto grandi, il che tende a far crescere la somma verso l’infi- nito. E il lavoro di 270 pagine con cui Poincaré vinse il «premio Oscar» sembrava appunto indicare che tali somme fossero effettivamente infinite, e che dunque le orbite non fossero stabili. Il problema della stabilità fu ripreso nel 1954 da Kol- mogorov, che indicò le linee per una sua soluzione, e il suo programma fu portato a termine da Vladimir Arnol'd e Jurgen Moser nel 1962, in un lavoro che viene global- mente chiamato teorema KAM, dalle iniziali dei tre au- tori. La soluzione è che, per perturbazioni piccole, la maggioranza delle orbite è stabile: esse non sono perio- diche, ma si mantengono vicine alle orbite periodiche del sistema non perturbato, e per questo vengono dette qua- si-periodiche. L’essenza matematica del teorema KAM è che il pro- blema dei piccoli divisori si presenta effettivamente quan- do ci si trova di fronte a periodi razionali, o bene appros- simabili da razionali (cioè mediante frazioni a denomina- tore relativamente piccolo), ma non si presenta altrimenti: poiché la maggioranza dei numeri reali è appunto costi- tuita da numeri non bene approssimabili da razionali, il problema non si presenta nella maggioranza dei casi. L’interesse suscitato dal teorema KAM e dalle relative problematiche è considerevole. Nella direzione della ma- tematica più pura, il risultato originario ha fruttato a Kol-
matematica applicata 133 mogorov e Moser il premio Wolf nel 1980 e 1994-99, e una sua recente generalizzazione ha fruttato a Jean Chri- stophe Yoccoz una medaglia Fields nel 1994. Nella dire- zione complementare della matematica piu applicata, la teorica stabilità delle orbite dei pianeti nel sistema sola- re si traduce nella concreta stabilità delle orbite delle par- ticelle negli acceleratori, essenziale affinché queste non perdano la loro energia in urti contro le pareti, e la rile- vanza del teorema deriva dal fatto che il numero delle or- bite delle particelle in un esperimento è talmente grande da essere paragonabile al numero delle orbite dei piane- ti nel corso dell’intera vita del sistema solare. 10. Teoria dei nodi: gli invarianti di Jones (1984). Secondo la leggenda, a Gordio di Frigia (oggi in Tur- chia) il carro del re Mida era legato al suo giogo da un no- do tanto stretto e complicato, che si diceva che colui che fosse riuscito a scioglierlo sarebbe divenuto re del mon- do intero. Alessandro Magno giunse a Gordio nel 333 a. C., e dopo alcuni tentativi infruttuosi tagliò il nodo con la spada. Naturalmente, il problema rimase insoluto: la soluzione di un nodo richiede infatti che esso sia defor- mato senza strapparlo, ed è dunque di natura topologica. Nel 1848 Johann Listing, studente di Gauss, coniò il nome topologia e pubblicò il primo libro sull’argomen- to, una buona parte del quale era appunto dedicata allo studio dei nodi, cioè delle curve chiuse nello spazio (fi- gura 28). In quanto curve, i nodi non sono altro che su- perfici a una sola dimensione: è dunque naturale osser- varli da un punto di vista topologico, come se fossero fat- ti di sottilissimi spaghi di gomma con le estremità unite, e cercare di classificarli come hanno fatto Riemann, M6- bius e Klein per le superfici a due dimensioni, e Thur- ston per quelle a tre dimensioni. In linea di principio, esiste un collegamento fra la teo- ria dei nodi e la teoria delle superfici. Dato un nodo, si
134 CAPITOLO TERZO può infatti immaginare il suo supporto non come una curva astratta e matematica, la cui sezione è ridotta a un punto, ma come un tubo solido e fisico, la cui sezione è un cerchio. Considerare la superficie bidimensionale del tubo non porta lontani, perché da un punto di vista to- pologico essa è sempre equivalente a un toro, per qua- lunque nodo. Si può però considerare la superficie tridi- mensionale che è il calco del tubo, ossia l’intero spazio meno il tubo stesso (interno compreso): la struttura del nodo diventa allora la struttura dei buchi di questa su- perficie, e allo, studio di questa si possono applicare tut- ti gli strumenti topologici classici. Questo approccio è però molto indiretto, e la teoria dei nodi si è dedicata ad assegnare loyo direttamente de- gli invarianti che, come dice il nome, non cambiano quan- do il nodo viene assoggettato a deformazioni topologi- che, ossia quando lo spago di gomma di cui il nodo è co- stituito viene tirato o spinto, senza romperlo. Molti di questi invarianti si possono implicitamente dedurre dal- la superficie associata, ma il problema è definirne di espli- Figura 28. Nodi. trifogli o nodi semplici quadrifogli o nodi piani
matematica applicata 135 citi che si possono ottenere direttamente dalla figura del nodo stesso. Il più semplice invariante che si possa immaginare è il numero che conta quante volte lo spago si interseca, quand’esso è deposto su un piano: naturalmente, defor- mazioni del nodo possono cambiare tale numero, per esempio facendogli fare giri inutili su se stesso, e per ave- re un invariante si deve allora prendere il minimo nume- ro necessario per rappresentare il nodo dato. Questo però rende quasi inutile l’invariante, perché per poterlo cal- colare bisogna, in pratica, già sapere che tipo di nodo si sta considerando. Nel 1910 Max Dehn introdusse una descrizione alge- brica dei nodi, che gli permise di provare che esistono no- di diversi: in altre parole, che non tutti i nodi si possono sciogliere, riducendoli cioè al nodo nullo (un cerchio) me- diante opportune deformazioni, e senza romperli. La co- sa è ovvia intuitivamente, per esempio già per il trifoglio (o nodo semplice), ma il problema era dimostrarlo ma- tematicamente. Nel 1928 James Alexander definì come invariante un polinomio, che oltre alle semplici intersezioni tiene con- to anche del modo in cui esse avvengono (la variabile del polinomio rappresenta il meridiano del nodo). Quando si sommano due nodi, i loro polinomi di Alexander si moltiplicano: poiché il polinomio assegnato al trifoglio è x2-x + 1, e il quadrifoglio (o nodo piano) è la somma di due trifogli, il polinomio di questo sarà (x?-x + 1)2 = x4-2x3 + 3x2-2x+ 1. Dal fatto che due nodi hanno polinomi diversi si può dedurre che anch’essi sono diversi: trifoglio e quadrifo- glio non si possono dunque ottenere uno dall’altro, per deformazione; e ci sono infiniti nodi diversi, perché ogni polinomio (simmetrico) è il polinomio di un nodo. Due nodi possono però essere diversi pur avendo lo stesso po- linomio, e questo è ciò che accade per i trifogli destrorso e sinistrorso.
136 CAPITOLO TERZO Nel 1984 Vaughan Jones definì come invariante un nuovo tipo di «polinomio» (tra virgolette, perché gli esponenti della variabile possono anche essere negativi), che tiene anche conto del verso in cui le intersezioni av- vengono, e permette dunque di distinguere fra loro i due trifogli: i loro «polinomi» sono infatti, rispettivamente, Ai suoi «polinomi» Jones arrivò in maniera indiretta, studiando le algebre di Von Neumann, e in seguito egli scopri un ulteriore inaspettato collegamento con la mec- canica statistica: per questi risultati, oltre che per la fe- condità dimostrata dai suoi invarianti, Jones ottenne la medaglia Fields nel 1990. Nonostante questi sviluppi, una classificazione com- pleta dei nodi non è ancora stata trovata. In particolare, non si è ancora trovato un invariante completo, che per- metta cioè di distinguere fra loro tutti i nodi che sono ef- fettivamente diversi (il migliore invariante attuale è do- vuto a Maxim Kontsevich, e gli ha fruttato la medaglia Fields nel 1998). Anche in questo stato incompleto, le ap- plicazioni della teoria dei nodi sono comunque estrema- mente significative. Per cominciare dalla fisica, nel 1867 lord Kelvin pro- pose una teoria secondo cui gli atomi erano nodi nell’e- tere, detti atomi di vortice, analoghi alle volute del fumo nell’aria. L’idea, apparentemente balzana, si basava su un teorema di Hermann Helmholtz secondo il quale un vor- tice in un fluido perfetto, una volta creato, si mantiene indefinitamente. Kelvin fu ispirato da esperimenti di Pe- ter Tait con anelli di fumo, che rimbalzavano elastica- mente ed esibivano interessanti modi di vibrazione. Il vantaggio di questa teoria era che i nodi venivano tenuti insieme da puri legami topologici, senza che ci fosse bi- sogno di far intervenire forze atomiche specifiche. La proposta stimolò uno studio decennale dei nodi da par-’ te di Tait, e produsse una tavola abbastanza completa e
matematica applicata 137 accurata dei nodi aventi fino a 10 intersezioni, ma la teo- ria di Kelvin fu abbandonata quando il modello di Bohr, che vedeva l’atomo come un sistema solare in miniatura, prese il sopravvento. I nodi sono oggi di attualità grazie alla teoria delle strin- ghe (dall’inglese strings, «corde»), che dovrebbero esse- re i costituenti ultimi della materia, e di cui le particelle elementari sarebbero modi di vibrazione in spazi multi- dimensionali. In realtà, ci sono varie teorie delle stringhe: nella più semplice le stringhe sono aperte e unidimen- sionali, come pezzetti di spago con quark attaccati alle estremità, ma in altre possono essere chiuse, appunto co- me i nodi di cui abbiamo parlato. In teorie più recenti, poi, le stringhe unidimensionali sono sostituite da mem- brane pluridimensionali, aperte o chiuse. Molte delle idee matematiche della teoria delle strin- ghe hanno la loro radice nei pirotecnici lavori di Edward Witten, che hanno profondamente influenzato la mate- matica negli ultimi anni e gli sono valsi la medaglia Fields nel 1990. Witten ha trovato insospettate relazioni della teoria delle stringhe con le aree più disparate della mate- matica: per esempio, il mostro di Fischer-Griess in teoria dei gruppi, i polinomi di Jones in teoria dei nodi, e gli spa- zi esotici di Donaldson in topologia risultano tutti essere aspetti di particolari teorie topologico-quantistiche di campo, rispettivamente a 2, 3 e 4 dimensioni. Questo punto di vista permette da un lato di spiegare alcune misteriose simmetrie di questi oggetti, e dall’altro di estenderne la portata in maniera sostanziale. Per esem- pio, è proprio usando la teoria delle stringhe che Maxim Kontsevich e Richard Borcherds hanno ottenuto risulta- ti che sono loro valsi la medaglia Fields nel 1998. Il pri- mo ha potuto generalizzare i polinomi di Jones e ottene- re nuovi invarianti, non soltanto per i nodi ma anche per le superfici tridimensionali (i polinomi di Jones sono ri- sultati essere integrali di Feynman calcolati su una parti- colare superficie, la cui definizione si ottiene dalla teoria delle stringhe). Il secondo ha invece potuto risolvere la
i38 CAPITOLO TERZO congettura Chiaro di Luna, proposta da John Conway e Simon Norton nel 1979, che lega il mostro di Fischer- Griess alla teoria delle funzioni ellittiche, introdotta nel 1827 da Niels Abel e Cari Jacobi (il mostro è risultato es- sere il gruppo degli automorfismi di una particolare alge- bra, i cui assiomi si ottengono dalla teoria delle stringhe). Nelle versioni recenti della teoria delle stringhe gioca- no un ruolo essenziale le varietà di Calabi-Yau, a cui ab- biamo già accennato. In una prima fase, detta della su- persimmetria, si scoprì che l’imposizione di forti richie- ste di invarianza alla teoria delle stringhe richiedeva appunto la modellizzazione mediante una varietà di Ca- labi-Yau: le 3 dimensioni complesse della varietà corri- spondono a 6 dimensioni reali, che aggiunte alle 4 dello spazio-tempo portano il numero totale delle dimensioni a 10. In una seconda fase, detta della simmetria specula- re, si scopri che era in realtà possibile modellare la teo- ria fisica mediante due diverse varietà di Calabi-Yau, e che alcuni dei calcoli difficili in una delle due risultava- no essere facili nell’altra, e viceversa: tenendo cosi i pie- di in due scarpe, è risultato possibile fare essenziali pas- si in avanti nella ricerca di una teoria del tutto che descriva in maniera unitaria l’intera fisica moderna. Un tipo diverso di applicazione della teoria dei nodi è lo studio della struttura del dna, che consiste di un lun- go filamento di geni ripiegato su se stesso: una catena di circa un metro di lunghezza, che risiede nel nucleo di una cellula, del diametro di 5 milionesimi di metro (più o me- no come se un filo di 200 chilometri fosse ripiegato in un pallone da calcio). Quando il dna si replica, si divide in due copie identiche: il problema è capire come questo possa avvenire in maniera efficiente, visto che già l’ana- ,.oga divisione dei fili che compongono una corda pro- duce complicati annodamenti. Mentre gli invarianti di Alexander non erano in grado di affrontare i ripiegamenti del dna, gli invarianti di Jones hanno invece già prodot- to risultati interessanti anche in questo campo.
Capitolo quarto Matematica al calcolatore Il calcolatore sta cambiando sostanzialmente la vita quotidiana, non solo dell’uomo comune, ma anche del matematico. Come spesso avviene per la tecnologia, mol- ti cambiamenti sono per il peggio, e le applicazioni ma- tematiche del calcolatore non fanno eccezione: per esem- pio, quand’esso viene usato come un idiot savant, nel- ' .'affannosa e futile ricerca di numeri primi sempre più grandi. Per la cronaca, il record a fine Novecento era 26 972593- 1, un numero di circa due miliardi di cifre. I pericoli insiti in un uso spensierato del calcolatore sono mirabilmente esemplificati dal seguente episodio, che mostra come l’affidarsi indiscriminatamente alla sua potenza possa essere di ostacolo, invece che di stimolo, al pensiero matematico. Fermat aveva congetturato nel 1640 che i numeri della forma 22 '+ 1 fossero tutti primi, sulla base del fatto che cosi è per n da 0 a 4: in questi ca- si si ottengono i numeri 3, 5, 17, 257 e 65537, che sono effettivamente primi. Un calcolatore può oggi facilmen- te verificare, per forza bruta, che la congettura è già fal- sa per n = 5, perché 22 + 1 = 232 +1 = 4 294 967 297 = 641 x 6 7 00 417. Ma una sistematica ricerca manuale dei possibili divi- sori era ed è impossibile. Nel 1736 Leonhard Euler la evitò mostrando, con una ingegnosa e drastica riduzio- ne, che era sufficiente limitarsi a considerare divisori del tipo 64k + 1 : il divisore 641 si trova allora al decimo ten- tativo (k = 10). La mancanza del calcolatore costrinse co- si Eulero a spostare il problema dalla bassa ragioneria al-
140 CAPITOLO QUARTO l’alta matematica, e a risolvere uno dei curiosi problemi di Fermat mediante uno dei suoi sorprendenti teoremi. Per la cronaca, non si conoscono altri numeri di Fermat che siano primi, e nel 1990 lo sforzo congiunto di mille calcolatori ha permesso di emulare, per n - 9, ciò che Eu- ler aveva fatto a mano per n - 9, senza peraltro produr- re nessun risultato matematico interessante. Sia lo specifico di un episodio significativo, che la ge- neralità del motto delle Ricerche filosofiche di Wittgen- stein, ammoniscono dunque che «il progresso appare sempre piu grande di quello che è». In altre parole, gli effetti dell’uso del calcolatore, in matematica e altrove, non si devono esagerare acriticamente, come troppo spesso viene fatto dalla stampa divulgativa, ma piuttosto esaminare criticamente: il che permetterà di far risaltare meglio i contorni del progresso sostanziale, sullo sfondo dello sviluppo apparente. Anzitutto, si deve subito dire che l’eventuale influen- za del calcolatore sulla matematica sarebbe comunque soltanto un favore restituito. Se infatti è vero che spesso le teorizzazioni scientifiche seguono le realizzazioni tec- nologiche, in questo caso è avvenuto esattamente il con- trario: la costruzione dei primi calcolatori elettronici fu infatti il punto di arrivo di uno sviluppo matematico du- rato un intero secolo, e consistente di tre tappe sostan- ziali. La prima idea fondamentale fu introdotta nel 1854 da George Boole, nel famoso libro Le leggi del pensiero. In esso era descritta quella formulazione algebrica del com- portamento semantico delle più semplici particelle lin- guistiche, quali la congiunzione e la negazione, che oggi viene chiamata algebra booleana. Il programma di tratta- re in forma matematica le leggi che regolano il pensiero fu proseguito da Frege e Russell, che lo estesero con suc- cesso all intera logica. E l’intelligenza Artificiale del dopoguerra ha cercato, per ora con limitati successi, di estendere ulteriormente la formalizzazione del pensiero, anche al di fuori dell’ambito logico e razionale.
matematica AL CALCOLATORE 141 La seconda, e sostanziale, idea fu introdotta da Alan Turing nel 1936. Egli parti proprio dal calcolo logico di Frege e Russell, e dimostrò che non esiste un modo per decidere, data una formula del calcolo, se essa sia valida oppure no: in altre parole, è impossibile meccanizzare la semantica del ragionamento logico, in un modo analogo a quanto si era fatto per la sua sintassi. Per dimostrare questo risultato di impossibilità, Turing introdusse la no- zione di una macchina astratta in grado di eseguire tutti i possibili compiti formali, e mostrò che essa non era in grado di risolvere il problema della decisione. Volendo descrivere oggi la macchina di Turing, basta dire sempli- cemente che essa era il progetto teorico di un calcolato- re universale moderno. Per realizzare fisicamente una tale macchina era però necessaria un'ultima idea, che nacque dalla collabora- zione tra un neurofisiologo e un matematico: Warren Mc- Culloch e Walter Pitts. Poiché si trattava di fornire alla macchina di Turing un «cervello» in grado di guidarla nell’esecuzione dei suoi compiti, nel 1943 essi propose- ro un modello astratto di sistema nervoso, basato su una semplificazione di quello umano, e mostrarono che lo si poteva sintetizzare mediante fili elettrici, le cui connes- sioni prendono il posto dei neuroni, e in cui il passaggio o meno di una corrente elettrica prende il posto della pre- senza o assenza di una risposta sinaptica. E ciò che le re- ti neuronali potevano realizzare risultò essere esattamente l’algebra booleana. Il calcolatore elettronico non è altro che la realizza- zione pratica del sistema composto dalla macchina di Tu- ring e dalla rete neuronaie di McCulloch e Pitts: que- st'ultima fornisce alla prima un cervello in grado di ese- guire le decisioni logiche più elementari, grazie al quale la macchina è in grado di effettuare tutti i compiti mec- canici possibili, che non comprendono però le decisioni che richiedono una logica superiore. Gli sviluppi appena accennati ebbero una parte in- fluente nei due progetti che portarono alla costruzione
142 CAPITOLO QUARTO dei primi calcolatori elettronici: I’eniac, o Electronic Nu- merical Integrator and Calculator, diretto negli Stati Uni- ti da Von Neumann, e Tace, o Automatic Computing En- gine, diretto in Gran Bretagna da Turing stesso, entram- bi attorno agli anni ’50. Se dunque il calcolatore è figlio della ricerca matematica della prima metà del secolo, non ci si può stupire che esso manifesti poi i segni del patri- monio genetico che gli è stato trasmesso. La prima applicazione matematica della nuova mac- china fu, naturalmente, l’utilizzo dei suoi poteri compu- tazionali: anzi, il suo stesso concepimento era stato sti- molato proprio dalla speranza di poter automatizzare l’e- norme quantità di calcoli resa necessaria dagli sforzi bellici, che Turing aveva sperimentato di persona nel suo lavoro di controspionaggio, e Von Neumann nella co- struzione della bomba atomica. Quest’uso del calcolato- re a fini di calcolo è ancora oggi il più diffuso, ed è re- sponsabile del suo stesso nome. I benefici della possibilità di effettuare conti in maniera veloce e massiccia si sono indubbiamente fatti sentire an- che nella matematica pura. Il caso più noto è certamen- te la dimostrazione interattiva del teorema dei quattro co- lori di Kenneth Appel e Wolfgang Haken, che ha richie- sto nel 1976 un aiuto da parte del calcolatore di migliaia di ore di tempo macchina. Il primo teorema dimostrato completamente dal calcolatore, senza aiuto da parte del- l’uomo, è invece del 1997: esso riguarda la congettura di Robbins, proposta da Herbert Robbins nel 1933, che as- seriva che un sistema di tre equazioni era un’assiomatiz- zazione della teoria delle algebre booleane, e che è stata dimostrata appunto da un programma, scritto da William McCune e Larry Wos. Naturalmente, è però nella matematica applicata che gli usi del calcolatore stanno provocando gli effetti più visibili. Per esempio, lo studio dei sistemi dinamici ri- chiedeva, fino alla seconda metà del secolo xx, un pro- cesso a tre stadi: la descrizione del sistema in termini ma- tematici, la soluzione esplicita del sistema, e la descrizio-
MATEMATICA AL CALCOLATORE 143 ne grafica della soluzione. Spesso lo studio si arenava do- po il primo passo, a causa della difficoltà della descrizio- ne del sistema, che ne impediva la soluzione: il che aveva prodotto una rimozione dei sistemi complessi, e una con- centrazione su sistemi la cui descrizione fosse sufficien- temente semplice da poter essere risolta. Nel caso in cui soluzioni si potessero poi ottenere, sia esplicitamente che mediante processi di approssimazione, la loro rappre- sentazione grafica poteva essere comunque impossibile, a causa dell’enorme quantità di calcoli necessari. L’utilizzo del calcolatore ha permesso di risolvere non soltanto il secondo problema, ma anche il primo: spesso si può infatti evitare di trovare soluzioni esplicite della descrizione matematica di un sistema, e ottenere una de- scrizione grafica del suo comportamento direttamente, mediante una simulazione. Il che ha permesso lo studio di un’intera classe di sistemi che non si erano mai potuti affrontare, e la nascita di quella che oggi viene detta teo- ria del caos-, la quale, nonostante il suo nome, studia ap- punto sistemi niente affatto caotici, ma tanto complessi da sembrarlo a prima vista. La metafora più nota dei sistemi caotici è la storiella della farfalla, il cui battito d’ali in un continente potreb- be scatenare un tornado in un altro. E una delle applica- zioni classiche del calcolatore, già iniziata da Von Neu- mann stesso, e poi proseguita da Edward Lorenz, è pro- prio la simulazione del tempo atmosferico, che ha reso possibili le previsioni alla breve, e che ha generato una delle immagini più note del caos: uno strano attrattore a forma, guarda caso, di ali di farfalla. A proposito di immagini, non si possono tacere gli svi- luppi della grafica computerizzata: ubique nelle applica- zioni commerciali, esse stanno ormai acquistando un ruo- lo importante anche nella matematica pura, come ausilio visivo. I casi più tipici sono stati le scoperte di nuove su- perfici, che sarebbero state difficilmente visualizzabili con il solo occhio della mente: le superfici minimali trovate nel 1983 da David Hoffman e William Meeks, di cui ab-
144 CAPITOLO QUARTO biamo già parlato (figura 7); e la cosiddetta Venere Etni- sca di Donna Cox e George Francis, scoperta nel 1988 (fi- gura 29). Le immagini più note, anche grazie alle loro qualità vi- sive, che alcuni arrivano a considerare l’espressione di una nuova forma d’arte, sono quelle dei frattali-, le curve auto- simili scoperte all’inizio del secolo come curiosità, abban- donate temporaneamente per la difficoltà di una loro raf- figurazione, e tornate prepotentemente alla ribalta negli anni ’80, grazie al lavoro di Benoit Mandelbrot. Proprio a quest’ultimo si deve la scoperta di una sorta di frattale uni- versale, che esaminato al microscopio si rivela essere un inesauribile contenitore di sorprendenti particolari, e le cui immagini sono divenute il simbolo delle feconde poten- zialità di un uso oculato del calcolatore nella matematica. Avendo cosi introdotto in generale il problema del rap- porto reciproco fra matematica e informatica, passiamo ora a esaminare in particolare alcune delle più interes- santi applicazioni del calcolatore alla ricerca matemati- ca, alle quali abbiamo già accennato. Figura 29. Venere Etnisca.
matematica al calcolatore 145 1. Teoria degli algoritmi: la caratterizzazione di Turing (1936). Al Congresso Internazionale di Bologna del 1928 Hil- bert (ri)propose un altro dei suoi famosi problemi, il co- siddetto Entscheidungsproblem, o «problema della deci- sione»; mostrare che esiste un algoritmo per decidere se una proposizione è conseguenza logica di altre. L’interesse del problema stava nel fatto che le varie branche della matematica si possono uniformemente pre- sentare attraverso sistemi di assiomi, da cui i teoremi si derivano mediante la sola logica. Un algoritmo come quello richiesto da Hilbert avrebbe dunque permesso ai matematici di concentrarsi sulla parte piacevole del loro lavoro, cioè la formulazione di assiomi e l’enunciazione di enunciati interessanti, e di lasciare all’algoritmo la par- te più faticosa, cioè la dimostrazione degli enunciati a par- tire dagli assiomi. Il problema non era comunque soltanto l’espressione di un pio desiderio. Nel 1922 Emil Post aveva già com- piuto un passo sostanziale, mostrando che la parte della ogica detta proposizionale, che tratta di particelle lin- guistiche dette connettivi («non», «e», «o», «se-allo- ra»), ammette effettivamente un tale algoritmo: il cosid- detto metodo delle tavole di verità. Hilbert chiedeva ora di estendere il risultato alla parte della logica detta pre- dicativa, che tratta anche di particelle linguistiche dette quantificatori («nessuno», «qualcuno», «tutti»). Il problema fu risolto indipendentemente, nel 1936, da Alonzo Church negli Stati Uniti e da Alan Turing in Inghilterra. La soluzione, come si può prevedere dal fat- to che le dimostrazioni hanno continuato a essere la par- te centrale dell’attività matematica, fu negativa: un algo- ritmo come quello richiesto da Hilbert non esiste. Ma la dimostrazione di questo fatto presuppone un progresso sostanziale: mentre infatti una dimostrazione di esisten- za di un algoritmo richiede semplicemente la sua esibi-
146 CAPITOLO QUARTO zione, una dimostrazione di non esistenza richiede l’e- sclusione di ogni possibile algoritmo, e dunque la carat- terizzazione completa della nozione stessa di algoritmo. Il fatto che una tale nozione vaga e intuitiva ammetta effettivamente una caratterizzazione precisa e formale fu una scoperta sorprendente, alla quale si arrivò mediante una serie di tentativi di definizione che risultarono, a po- steriori, essere tutti equivalenti. Ma fu proprio l’approc- cio di Turing a convincere definitivamente che si era ar- rivati alla soluzione del problema: oggi la sua definizione si può riformulare in maniera quasi banale, dicendo che un algoritmo è ciò che si può tradurre in un programma per calcolatore, in uno qualunque dei linguaggi detti uni- versali (per esempio, l’imperativo pascal, il funzionale LISP, O il logico PROLOG). Naturalmente, nel 1936 non esistevano i calcolatori. E anzi, il loro sviluppo si basò appunto sull’introduzione da parte di Turing del concetto di macchina universale, che può calcolare ogni funzione calcolabile eseguendo- ne un programma. In particolare, sul passaggio dalle mac- chine costruite per eseguire compiti fissi, come le calco- latrici, alle macchine in grado di eseguire qualunque com- pito eseguibile, come i calcolatori. Turing derivò la soluzione negativa àeWEntschei- dungsproblem traducendo, nel linguaggio della logica, il cosiddetto problema della fermata-, decidere se un dato programma si ferma su un dato argomento. Che questo problema sia indecidibile, nel senso che non esista nes- sun programma che lo possa decidere, si può dimostra- re facilmente mediante il classico metodo diagonale, in- trodotto da Cantor in teoria degli insiemi, e poi sfruttato da Russell per il suo paradosso, e da Godei per il suo teo- rema di incompletezza: metodo che era dunque ben no- to a Turing (e a Church, che risolse il problema in ma- niera analoga, usando però la sua equivalente definizio- ne di algoritmo in termini di Lambda Calcolo). La soluzione (de\EEntscheidungsproblem mostrò la via per dimostrare risultati di indecidibilità nei campi piu di-
MATEMATICA AL CALCOLATORE 147 sparati, mediante appropriate traduzioni del problema della fermata, o di altri simili. Dal punto di vista mate- matico, l’applicazione più interessante del metodo fu la soluzione negativa del decimo problema di Hilbert-, tro- vare un algoritmo per decidere se un polinomio (in una o più variabili) a coefficienti interi (positivi o negativi) ammette zeri interi; o, in altri termini, se la cosiddetta equazione diofantea che si ottiene uguagliando il poli- nomio a 0, ammette radici intere. Al tempo del congresso del 1900, soluzioni positive a casi particolari del decimo problema di Hilbert erano no- te. Per esempio, l’algoritmo di Euclide per il massimo co- mun divisore permette di trattare il caso delle equazioni diofantee di grado 1, perché axxx+... +a„x,=b ha soluzioni intere se e solo se il massimo comun diviso- re di ax, ..., a,. divide b. La teoria della reciprocità qua- dratica di Gauss permette di trattare il caso delle equa- zioni diofantee di grado 2. Un risultato del 1968 di Alan Baker, che stabilisce limi- ti superiori effettivi alle soluzioni di polinomi di grado al- meno 3 e gli è valso la medaglia Fields nel 1970, permette di trattare il caso delle equazioni ellittiche: il che svela una Drofonda connessione del decimo problema di Hilbert con a congettura di Mordell e il teorema di Fermat. Il risulta- to di Baker è poi stato esteso in modo da trattare il caso di una qualunque equazione diofantea a due sole variabili. La difficoltà di soluzione di questi casi particolari la- scia però prevedere che la risposta al problema generale debba essere negativa, e che non ci sia quindi nessun al- goritmo generale di decisione. La dimostrazione di que- sto fatto fu trovata da Martin Davis, Hilary Putnam, Ju- lia Robinson, e Yuri Matyasevitch: nel 1960 i primi tre mostrarono come tradurre il problema della fermata nel linguaggio delle equazioni diofantee arricchito della fun- zione esponenziale (il comportamento di ciascun pro- gramma viene descritto da un’equazione, in modo tale
148 CAPITOLO QUARTO che il programma si ferma se e solo se l’equazione ha so- luzioni), e nel 1970 il quarto eliminò l’uso della funzione esponenziale. Un raffinamento del risultato di Matyasevitch dimo- stra che già il caso di una qualunque equazione diofan- tea a nove variabili è indecidibile, ma non si sa se questo sia il miglior risultato possibile. Anzi, Baker congettura che già il caso di tre sole variabili sia indecidibile. 2. Intelligenza Artificiale: l’analisi degli scacchi di Shannon (1950). Nessun uso del calcolatore è più originale e contro- verso di quello che viene fatto nell’intelligenza Artificia- le, per simulare processi e risultati tipici dell’intelligenza. L’originalità deriva, ovviamente, dalla provocazione in- tellettuale di considerare il pensiero, che è la caratteristi- ca umana più specifica, come qualcosa di cui possono es- sere dotate addirittura le macchine. La controversia de- riva dal fatto che l’intelligenza Artificiale, soprattutto nei periodi iniziali degli anni ’50 e ’60, si è sbilanciata in pre- visioni che sono risultate, all'atto pratico, esagerate e ir- realistiche, quando non semplicemente ridicole. Che le macchine possano pensare era già stato sugge- rito da Turing stesso, nel famoso articolo del 1950 Mac- chine calcolatrici e intelligenza. Egli propose, in partico- lare, una verifica pratica che è divenuta nota come test di Turing-. si può dire che una macchina pensi quando un interlocutore che conversi con essa a distanza e per scrit- to non si accorga che le risposte non sono date da un es- sere umano. Il nome di Intelligenza Artificiale fu invece adottato ufficialmente dalla comunità informatica nel 1956, allo storico congresso del Darmouth College di Hanover, nel New Hampshire. A esso parteciparono coloro che dove- vano divenire gli esponenti più rappresentativi della di- sciplina, e che ricevettero poi il riconoscimento informa-
MATEMATICA al calcolatore 149 tico più prestigioso, il Turing Award'. Marvin Minsky nel 1969, John McCarthy nel 1971, e Alien Newell e Herbert Simon nel 1975. I sogni originali dell’intelligenza Artificiale, espressa- mente dichiarati da Simon negli anni ’50, erano di arri- vare in dieci anni a programmi che battessero il campio- ne mondiale di scacchi, dimostrassero importanti nuovi teoremi di matematica, e ispirassero la maggior parte del- le teorie psicologiche. Dopo quarantanni la maggior parte di quei sogni so- no stati invece abbandonati, e il ruolo del calcolatore è stato drasticamente declassato: come strumento mate- matico esso viene oggi usato quasi esclusivamente per ef- fettuare calcoli massicci, più che per enunciare e dimo- strare autonomamente nuovi teoremi, e come modello di teorie mentali esso è già stato superato dalle reti neurali. Il che non significa, ovviamente, che con il suo aiuto non si siano raggiunti risultati profondi e applicazioni utili: gli esempi più significativi, oltre a quelli citati nel seguito, sono i sistemi esperti, che codificano ristrette conoscen- ze specialistiche in banche dati, e traggono deduzioni da esse mediante linguaggi di programmazione che simula- no ristretti aspetti meccanici del ragionamento. In un unico campo le previsioni di Simon si sono av- verate nella maniera più completa, benché in tempi più lunghi del previsto: il gioco degli scacchi. Già nel 1864 Charles Babbage, il visionario inventore del primo com- puter, aveva anticipato la possibilità di far giocare una macchina a scacchi, formulando un primo insieme di pos- sibili istruzioni rudimentali. E nel 1890 Leonardo Torres y Quevedo aveva formalizzato completamente la strate- gia per lo scacco matto, quando sulla scacchiera ci fosse- ro soltanto due re e una torre. La prima vera analisi informatica del gioco è però do- vuta a uno storico articolo di Claude Shannon, del 1950. In particolare, egli distinse nettamente: programmi loca- li a forza bruta, che analizzano l’albero delle possibilità fino a una profondità prefissata, scegliendo la mossa mi-
1^0 CAPITOLO QUARTO gliore in base a una valutazione minimax, e consideran- do solo le mosse più promettenti (ciascun livello di profondità permette di migliorare il punteggio del pro- gramma di circa 200 punti Elo); programmi globali, che combinano l’analisi in profondità delle mosse con una va- lutazione in estensione degli schieramenti, della mobilità, dell’equilibrio, dell’influenza e del controllo dei pezzi; e programmi strategici, che giocano mediante regole astrat- te simili a quelle umane. La prima partita fra un uomo e un programma si giocò nel 1951, fra l’informatico Alick Glennie e il turochamp scritto da Alan Turing. Poiché le macchine dell’epoca erano ancora troppo poco potenti, Turing dovette simu- lare il programma a mano. E poiché il programma era ab- bastanza poco sofisticato, la partita fu facilmente vinta da Glennie in 29 mosse. Le rosee previsioni di Simon furono condivise da Mikhail Botvinnik, lui stesso campione mondiale (con due brevi interruzioni) dal 1948 al 1963, che nel 1958 si dichiarò sicuro che un giorno il computer avrebbe gio- cato meglio dell’uomo, e si dedicò in seguito a lungo al- lo sviluppo di programmi globali e strategici. Il test di Turing, ristretto agli scacchi, fu passato sod- disfacentemente per la prima volta nel 1980 da belle, campione mondiale dei programmi (il primo campiona- to mondiale era stato tenuto nel 1974). In una simultanea di 26 partite giocate dal gran maestro Helmut Pfleger, tre di queste furono fatte giocare segretamente al program- ma. Cinque delle partite, una delle quali giocata (e vinta) da belle, furono poi selezionate e distribuite a vari esper- ti, compreso il gran maestro Korchnoi, che era stato lo sfidante al titolo mondiale nel 1978: la maggior parte de- gli esperti, Korchnoi e Pfleger compresi, ma Kasparov escluso, sbagliarono a identificare la partita giocata dal computer. La progressione dei programmi per scacchi è stata ef- fettivamente enorme. Nel 1978 ci fu la prima sconfitta in una partita di un maestro internazionale: David Levy, da
matematica al CALCOLATORE 151 parte di chess 4.7. Nel 1988 di un gran maestro: Bent Lar- sen, da parte di deep thought. Nel 1996 di un campione mondiale: Gary Kasparov, da parte di deep blue. Paralle- lamente, nel 1983 un programma (belle) divenne per la prima volta maestro, e nel 1990 un altro (deep thought) gran maestro. Il passo finale di questa progressione av- venne 1'11 maggio 1997, quando deep blue batté il cam- pione mondiale Kasparov non soltanto in una partita, ma in un vero e proprio torneo, col punteggio di 3,5 a 2,5. I programmi fino a belle erano del tipo locale, deep thought e deep blue sono del tipo globale, ma la co- struzione di programmi strategici si è invece rivelata per ora impraticabile. Il che mostra i limiti filosofici del pro- getto dell’intelligenza Artificiale, anche nella sua realiz- zazione di maggior successo: il fatto cioè di riuscire a vol- te a simulare il pensiero umano, riproducendone i risul- tati, ma mai a emularlo, riproducendone i processi. 3. Teoria del caos: l’attrattore strano di Lorenz (1963). Il problema fondamentale della dinamica è passare dalla descrizione implicita delle leggi che regolano il mo- vimento di un punto matematico o di un corpo fisico, a una descrizione esplicita della traiettoria seguita dal pun- to o dal corpo stesso: in una parola, risolvere le equazio- ni del moto. La dinamica classica si è concentrata sui moti descrivi- bili mediante equazioni differenziali lineari, per le quali sono stati sviluppati molti metodi di soluzione analitica. La difficoltà della soluzione di equazioni differenziali non lineari ha invece a lungo inibito uno studio approfondito dei fenomeni da esse descritti, anche a causa del fenome- no della instabilità a esse collegato: benché perfettamen- te deterministici in teoria, i sistemi non lineari si compor- tano infatti spesso in maniera praticamente caotica, per- ché piccole variazioni delle condizioni iniziali possono determinare grandi variazioni delle soluzioni.
I52 CAPITOLO QUARTO L'avvento del computer ha permesso di affrontare lo studio dei sistemi non lineari mediante la forza bruta del calcolo: invece di risolvere le equazioni in maniera anali- tica, si simula il processo da esse descritto in maniera ana- logica, ottenendo cosi non più un’equazione della traiet- toria, ma una sua immagine. E la soluzione grafica ri- sulta spesso non solo praticamente sufficiente per le applicazioni, ma anche visivamente immediata per l’im- maginazione. Una classificazione dei sistemi dinamici in base al com- portamento da essi descritto fa uso della nozione di at- trattore, che è una configurazione di equilibrio verso cui il corpo in movimento tende. Nel caso più semplice l’at- trattore è un punto, per esempio una massa gravitazio- nale che attrae un corpo (da cui deriva, appunto, il nome di attrattore). Un caso leggermente più complesso è una curva chiusa, per esempio della terra che si muove attor- no al sole (la curva ottenuta è un’ellisse). Ancora più com- plesso è il caso di una superficie che il corpo in movi- mento spazza durante un moto quasi periodico che si ot- tiene per sovrapposizione di moti periodici, per esempio della luna che si muove intorno alla terra che si muove at- torno al sole (la superficie ottenuta è la composizione di due moti ellissoidali perpendicolari, e dunque una spe- cie di toro). Ci sono anche attrattori strani, non classici come i pre- cedenti: la stranezza consiste nel fatto che, invece di es- sere punti, curve o superfici del tipo solito, essi sono frat- tali (in un senso preciso, che sarà definito in seguito). Il primo esempio di attrattore strano fu trovato nel 1963 da Edward Lorenz, come soluzione delle equazioni da lui proposte per la descrizione del comportamento del tem- po atmosferico, ed esso è divenuto l’emblema della teoria del caos (figura 30). La cosa interessante è che, appunto perché una tale soluzione viene ottenuta per simulazione sul calcolatore, la forma generale dell’attrattore di Lorenz è sempre più o meno la stessa, ma i suoi dettagli variano a seconda del (programma per) calcolatore usato.
matematica al calcolatore 153 Soltanto nel 199? Konstantin Mischaikow e Marian Mrozek hanno dimostrato (per colmo dell’ironia, con una dimostrazione che ha richiesto un esteso uso del calcola- tore) che il sistema di Lorenz è effettivamente caotico, nel senso che il suo comportamento porta a un attrattore stra- no. Ma, per ora, non è ancora dimostrato che questo at- trattore abbia proprio la forma che le sue approssimazioni al calcolatore mostrano: la cosa non è immediata appunto perché siamo in presenza di un sistema caotico, in cui pic- cole variazioni possono portare a grandi cambiamenti. Oltre all’evidente interesse applicativo, che spazia dal- l’aerodinamica alla meteorologia, la simulazione al cal- colatore di sistemi non lineari solleva dunque anche in- teressanti problemi teorici, relativi all'interpretazione dei risultati: il caos che appare sullo schermo del terminale non è una prova automatica della natura caotica del si- stema descritto dal sistema; e il vero attrattore di un siste- ma caotico non ha necessariamente la forma delle sue ap- prossimazioni mostrate dalle macchine. 4. Dimostrazioni assistite: il teorema dei quattro colo- ri diAppel e Haken (1976). Nel 1852 Francis Guthrie notò, colorando una carta geografica dell’Inghilterra, che non sembravano essere Figura 30. Attrattore di Lorenz.
154 CAPITOLO QUARTO necessari più di quattro colori per colorare una qualsiasi carta, in modo tale da assegnare colori diversi a regioni confinanti, purché i confini non fossero né troppo sem- plici, né troppo complessi. Non troppo semplici signifi- ca, per esempio, che non si permettono confini ridotti a punti isolati: altrimenti, basta considerare regioni dispo- ste come le fette di una torta per dedurre che nessun nu- mero finito di colori è sufficiente. Non troppo comples- si significa, per esempio, che si escludono confini che sia- no troppo frastagliati: altrimenti, basta considerare regioni che abbiano tutte lo stesso confine in comune (i cosiddetti laghi di Wada, figura 31) per dedurre che nes- sun numero di colori è sufficiente1. Per dimostrare che, sotto le restrizioni accennate, quat- tro colori sono effettivamente necessari basta esibire quat- tro paesi di cui ciascuno confina con gli altri tre, come nel- la figura 32. Augustus de Morgan dimostrò immediata- mente che non è possibile che cinque paesi confinino ciascuno con gli altri quattro, ma questo significa soltan- to che non si può dimostrare nello stesso modo che cin- que colori sono necessari. Dal che non segue affatto che quattro colori sono sufficienti, come supposero invece i molti dilettanti che per un secolo proposero dimostra- zioni sbagliate della congettura dei quattro colori. Nel 1879 Alfred Kempe pubblicò una dimostrazione del teorema, ma nel 1890 Percy Heawood notò che essa 1 Trovare due regioni con lo stesso confine è banale: basta dividere il pia- no in due parti mediante una retta o un cerchio. Trovare tre (o più) regioni con lo stesso confine è complicato, e richiede un processo al limite. Per visualiz- zarlo, supponiamo di avere due laghi, uno verde e uno blu, su un’isola nera circondata da un mare rosso. Si costruisce dapprima un canale che porti l’ac- qua rossa sull’isola in modo tale che la terra nera non disti mai più di un me- tro da essa. Poi si costruisce un canale che porti l’acqua verde sull'isola in mo- do tale che la terra nera non disti mai più di mezzo metro da essa. Infine si co- struisce un canale che porti l'acqua blu sull'isola in modo tale che la terra nera non disti mai più di un quarto di metro da essa. Poi si riparte, allungando dap- prima il primo canale in modo che la terra nera non disti mai più di un ottavo di metro dall'acqua rossa, e cosi via. Al limite le tre regioni verde, blu e rossa rimangono divise da un unico confine nero, che si è assottigliato alle dimen- sioni infinitesime di una linea curva.
MATEMATICA AL CALCOLATORE 155 conteneva un errore, e dimostrava soltanto che cinque co- lori sono sufficienti. La dimostrazione consisteva nel mo- strare che le regioni confinanti con al piu altre cinque re- gioni (figura 33) sono inevitabili, nel senso che ogni car- ta normale (tale cioè che in nessun punto si incontrano ?iù di tre regioni) ne deve contenere almeno una; e che .e carte contenenti configurazioni inevitabili sono ridu- cibili ad altre con almeno una regione in meno, e colora- bili con lo stesso numero di colori. Per esempio, se una regione è al piu quadrangolare, nel senso che confina con al piu quattro altre regioni, la nuova carta si ottiene contraendo la regione a un punto (figura 34). Se la nuova carta si può colorare con al più cinque colori, altrettanto si può fare per quella di par- Figura 31. Laghi di Wada. Figura 32. 3
156 CAPITOLO QUARTO lenza: basta usare, per la regione eliminata, un colore di- verso da quelli (al piu quattro) usati per le regioni confi- nanti. Un po’ più complicato è il caso delle regioni pentago- nali, che confinano con altre cinque regioni. In questo ca- so la nuova carta si ottiene considerando come un’unica regione quella pentagonale unita a due confinanti con es- sa, ma non fra loro (figura 35). Se la nuova carta si può colorare con al più cinque colori, altrettanto si può fare con quella di partenza: basta usare, per la regione penta- gonale, un colore diverso dai quattro usati per le regioni rimaste nella nuova carta (le due regioni che sono state considerate come la stessa avranno lo stesso colore, ma esse saranno separate dalla regione pentagonale, che ha un altro colore). Nel caso di quattro colori si possono trattare in modo analogo le regioni al più triangolari, e un trucco permette di trattare anche quelle quadrangolari, ma non c’è verso di trattare le regioni pentagonali. E i tentativi di rattoppo della dimostrazione di Kempe produssero da un lato in- siemi sempre più grandi di configurazioni inevitabili, e dal- l’altro lato insiemi sempre più grandi di configurazioni ri- ducibili, che permisero di dimostrare il teorema dei quat- tro colori per carte aventi fino a un centinaio di regioni. Ma solo nel 1976 Kenneth Appel e Wolfgang Haken tro- varono un insieme di configurazioni che fossero allo stes- so tempo sia inevitabili che riducibili, provando cosi fi- nalmente il teorema nella sua generalità. L’aspetto interessante della dimostrazione di Appel e Haken non fu tanto la soluzione del problema, il cui inte- resse matematico era abbastanza limitato, quanto piutto- sto il metodo da essi usato: le 1482 configurazioni inevita- bili e riducibili furono trovate per tentativi ed errori, a par- tire da un insieme di partenza di sole 500, in un processo di ricerca interattiva guidata dal calcolatore, che richiese 1200 ore (pari a 50 giorni ininterrotti) di tempo macchina. Per la prima volta la dimostrazione di un teorema ma- tematico si appoggiava dunque su conti che non poteva-
MATEMATICA AL CALCOLATORE 157 Figura 33. Regione pentagonale. Figura 34. Trattamento di una regione quadrangolare. regione quadrangolare contrazione Figura 35. Trattamento di una regione pentagonale. regione pentagonale contrazione
i58 CAPITOLO QUARTO no essere verificati a mano, e quando il lavoro che conte- neva la dimostrazione fu presentato aW Illinois Journalof Mathematics, il controllo del risultato fu effettuato me- diante un diverso programma, implementato su un di- verso calcolatore. Il che solleva qualche interrogativo di natura filosofica, perché le dimostrazioni assistite dal cal- colatore non sono dello stesso tipo di quelle solite: in que- ste ultime si passa direttamente dall’intuizione alla for- malizzazione, mentre nelle prime il passaggio è mediato da un programma. Il problema è che non solo non si può sapere se il programma formalizzi correttamente l'intui- zione, ma che per il teorema di Godei una dimostrazio- ne di correttezza è problematica, esattamente come per i sistemi formali. Può darsi che un giorno questa particolare dimostra- zione di questo particolare teorema venga radicalmente semplificata. Ma è anche possibile che il teorema dei quattro colori sia, invece, un sintomo di un malessere co- mune a tutti i sistemi formali indecidibili: il fatto, cioè, che devono esistere teoremi corti di dimostrazione arbi- trariamente lunga. Per esempio, teoremi di lunghezza n la cui piu corta dimostrazione ha almeno lunghezza 2": altrimenti il sistema sarebbe decidibile, perché per sape- re se un enunciato di lunghezza n è un teorema oppure no basterebbe generare sistematicamente tutte le dimo- strazioni di lunghezza al più 2", e controllare se qualcu- na di esse dimostra l’enunciato. Non c’è dunque da stupirsi se da un lato enunciati semplici possono richiedere dimostrazioni complesse, e dall’altro millenni di sviluppo matematico hanno proba- bilmente esaurito l’insieme delle dimostrazioni corte (e interessanti). Ciò che stiamo testimoniando è forse l’av- vento di una nuova era, in cui le dimostrazioni saranno sempre più lunghe e complicate: e per ovviare al proble- ma non sembrano esserci altri mezzi se non dividere il la- voro fra molti matematici, come nel caso della classifica- zione dei gruppi finiti, o delegarne una parte al compu- ter, come nel caso del teorema dei quattro colori.
MATEMATICA AL CALCOLATORE 159 Le piu note dimostrazioni assistite dal calcolatore so- no quelle del teorema dei quattro colori e della congettu- ra di Keplero, di cui abbiamo già parlato. Un altro esem- pio matematicamente rilevante è la refutazione della con- gettura di Mertens, a cui si arriva nel seguente modo. Nel 1832 Mòbius aveva considerato i numeri nella cui decomposizione i fattori primi appaiono tutti con espo- nente uguale a 1, cioè una sola volta, aveva assegnato a que- sti numeri il valore 1 o -1 a seconda che il numero di fat- tori sia pari o dispari, e aveva definito la funzione M(w) co- me la somma di questi valori, per tutti i numeri minori o uguali di n. Nel 1897 Franz Mertens calcolò i primi 10 000 valori della funzione M e congetturò che, per ogni n, -(n<MM < (n. La cosa potrebbe sembrare di interesse limitato, ma in realtà dalla congettura di Mertens sarebbe discesa l’ipo- tesi di Riemann: cioè, come vedremo, il più importante problema aperto della matematica moderna. Il calcolo di valori sempre più grandi della funzioni M sembrò con- fermare la congettura, ma essa fu refutata nel 1983 da Hermann de Rieie e Andrew Odlyzko, appunto con una dimostrazione assistita che fece un uso massiccio di un supercalcolatore CRAY. 5. Frattali: l’insieme di Mandelbrot (1980). Nel 1906 Helge von Koch scopri che è possibile che una regione del piano abbia un’area finita ma un bordo infinito. Basta considerare un triangolo equilatero, divi- dere ciascun lato in tre parti uguali, considerare il terzo centrale di ciascuno come la base di un nuovo triangolo equilatero, e ripetere il processo all’infinito (figura 36). Il risultato finale è una figura a forma di fiocco di neve, che ha appunto un’area finita, ma un bordo infinito (a ogni passo la lunghezza del bordo si moltiplica per —).
i6o CAPITOLO QUARTO A causa della simmetrica ripetitività del procedimen- to che lo definisce, il bordo della figura di Koch ha la pro- prietà di essere autosimile: se si trasformano due qua- unque dei segmenti delle varie approssimazioni, per esempio un lato del triangolo di partenza e un lato dei triangolini ottenuti al primo passo, si ottiene sempre la stessa curva al limite, soltanto in scala diversa. Poiché curve come la precedente non si possono mi- surare nel modo solito, avendo lunghezza infinita, nel 1918 Felix Hausdorff propose di misurarne almeno il grado di autosomiglianza, estendendo la nozione di di- mensione nel modo seguente. Un segmento è una figu- ra autosimile unidimensionale, che si può ottenere po- nendo insieme due parti di grandezza un mezzo. Ana- logamente, un quadrato è una figura autosimile bidi- mensionale, che si può ottenere ponendo insieme quat- tro parti di grandezza un mezzo. E un cubo è una figu- ra autosimile tridimensionale, che si può ottenere po- nendo insieme otto parti di grandezza un mezzo (figura 37). In generale, si può allora dire che una figura auto- simile di dimensione d è ciò che si può ottenere ponen- do insieme nd parti di grandezza J_. Poiché la curva di n 1 Koch si ottiene ponendo insieme 4 parti di grandezza q- (si divide un segmento in 3 parti, e si sostituisce quella centrale con due uguali), questo significa che la sua di- Figura 36. Curva di Koch.
161 MATEMATICA AL CALCOLATORE mensione d è tale che 4 = cioè Figure aventi dimensione frazionaria nel senso appe- na definito si dicono frattali, ed esistono in grande quan- tità. Per esempio, per ogni numero reale r compreso fra 1 e 2 esiste una curva frattale di dimensione r. Esistono analogamente anche superfici frattali, di dimensione compresa fra 2 e 3. Un esempio, detto spugna diMenger, si può ottenere considerando un cubo, dividendolo in 27 cubi, sottraendo i 7 centrali (6 sulle facce e 1 all’interno), e ripetendo il processo all’infinito (figura 38): la dimen- sione di questa superficie è (circa) 2,72, mentre il volume da essa racchiuso è 0. Figura 37. Figure autosimili. Figura 38. Spugna di Menger.
IÓ2 CAPITOLO QUARTO Gli esempi di frattali appena mostrati sono altamente regolari, e usano a ogni passo sempre lo stesso procedi- mento: per questo motivo, ingrandire un particolare pro- duce un’immagine dello stesso tipo della figura in gran- de. Si possono però anche considerare frattali la cui co- struzione utilizza procedimenti diversi a ogni passo: in questo caso, ingrandire particolari produce immagini di- verse dalla figura in grande. La ricerca su questo secondo tipo di frattali, iniziata da Gaston Julia e Pierre Fatou negli anni ’20, si arenò presto a causa delle difficoltà di calcolo, che rendono difficile il disegnarne immagini a mano. L’avvento del calcolatore ha invece permesso di ritornare sull’argo- mento, e le immagini computerizzate di frattali compli- cati sono divenute una vera e propria forma d’arte mo- derna. Il tipo più semplice di frattale che si possa considera- re, oltre a quello basato su modifiche lineari della figura di partenza, coinvolge procedimenti quadratici. Nel 1980 Benoit Mandelbrot scopri una sorta di frattale universa- le, definito in maniera piuttosto indiretta: considerando, cioè, la trasformazione x^ + c di punti del piano (i valori della x sono dunque numeri complessi, e non solo reali), e applicandola ripetutamente, partendo da punti qua- lunque. Nel caso in cui c sia nullo, ci sono tre casi: i punti che distano 1 dall’origine, cioè che stanno sul cerchio di rag- gio 1, non sono mossi dalla trasformazione (perché x2 è uguale a x, se x è uguale a 1); i punti che distano meno di 1 dall’origine, che sono cioè interni al cerchio di rag- gio 1, si muovono verso l’origine (perché x2 è minore di x, se x è minore di 1); i punti che distano più di 1 dall’o- rigine, che sono cioè esterni al cerchio di raggio 1, si muovono verso l’infinito (perché x2 è maggiore di x, se x è maggiore di 1). Ci sono dunque due zone di attra- zione, verso lo zero e verso l’infinito, divise da un confi- ne circolare. Nel caso in cui c sia arbitrario, varie cose possono sue-
MATEMATICA AL CALCOLATORE 163 cedere: il numero di zone di attrazione può variare; ol- tre alle zone di attrazione ci possono anche essere zone di orbite periodiche; e il confine fra le varie zone è una curva frattale che può essere costituita di un solo pez- zo, di più pezzi, o anche solo di una polvere di punti sparsi. L’insieme di Mandelbrot consiste dei punti c che dan- no origine a una zona di confine fatta di un solo pezzo, e la sua strana apparenza è divenuta una delle forme geo- metriche più note (figura 39). Come hanno mostrato Adrien Douady e John Hubbard nel 1985, esso è a sua volta fatto di un solo pezzo (in linguaggio tecnico, è con- nesso}. E, come ha mostrato Jean Christophe Yoccoz, ogni punto che non sta sul bordo è completamente cir- condato da una parte dell’insieme che è fatta di un solo pezzo (in linguaggio tecnico, è localmente connesso}1, uno dei risultati per i quali Yoccoz ha ottenuto la medaglia Fields nel 1994. La posizione di un punto c relativamente all’insieme di Mandelbrot determina qual è il comportamento della trasformazione quadratica x2 + c. L’importanza dello stu- Figura 39. Insieme di Mandelbrot.
164 CAPITOLO QUARTO dio di questo particolare aspetto è sottolineata dall’asse- gnazione della medaglia Fields nel 1998 a Curtis McCul- len, che ha isolato i punti corrispondenti a trasformazio- ni definenti sistemi dinamici iperbolici (cioè con orbite periodiche tutte circolari), particolarmente utili e ben stu- diati. Nonostante la sua definizione, apparentemente mol- to specifica, l'insieme di Mandelbrot ha un interesse ge- nerale: esso è infatti un sistema di riferimento per l’in- tero studio dei sistemi dinamici complessi, perché dà informazioni non soltanto sulle trasformazioni quadra- tiche, ma su qualunque trasformazione che si compor- ti come una quadratica anche solo su una porzione del piano. Quanto alle applicazioni, i frattali servono a modellare oggetti che esibiscono una struttura a molti livelli di sca- la, dalle coste marittime alle catene montuose, e sono usa- ti nella grafica computerizzata per riprodurne immagini realistiche (figura 40). Proprio a causa delle svariate ap- plicazioni dei frattali, Mandelbrot ha ottenuto il premio Wolfnel 1993 non per la matematica, ma per la fisica. Figura 40. Grafica frattale.
Capitolo quinto Problemi insoluti La matematica, come speriamo di aver mostrato, è so- stanzialmente un’attività di proposta e di soluzione di problemi: facili o difficili, superficiali o profondi, teorici o pratici, puri o applicati. E la loro scorta è inesauribile, anche perché le soluzioni ne pongono spesso di nuovi. Esaurita la nostra trattazione degli sviluppi relativi ai pro- blemi di Hilbert, e più in generale della matematica del secolo xx, sorge dunque spontaneo il desiderio di getta- re uno sguardo ai problemi futuri, allo scadere di un se- colo che segna anche la fine di un millennio. Naturalmente, è difficile giudicare la difficoltà di un problema prima di averne visto la soluzione, come pro- prio i problemi di Hilbert dimostrano. Per esempio, il ter- zo problema fu risolto immediatamente da Max Dehn, e la sua soluzione fu pubblicata prima ancora dell’appari- zione degli atti del congresso di Parigi. Analogamente, il settimo problema fu risolto nel 1929, benché soltanto die- ci anni prima Hilbert avesse ribadito che lo riteneva dif- ficilmente risolubile entro il secolo. I matematici ritengono comunque che i problemi che essi si pongono non soltanto siano risolubili, ma anche che saranno, prima o poi, effettivamente risolti. Per cita- re le parole di Hilbert nel suo discorso a Parigi: La convinzione della risolubilità di ogni problema è un po- tente incentivo per il ricercatore. Dentro di noi sentiamo il per- petuo richiamo: c’è un problema, cerchiamone la soluzione. E la si può trovare con la sola ragione, perché in matematica non c’è nessun ignorabimus. Hilbert si chiese se la risolubilità di ogni problema sia una caratteristica del solo pensiero matematico, o una
i66 CAPITOLO QUINTO piu generale legge di natura della mente. Ma disse chia- ramente che una soluzione accettabile di un problema matematico può anche essere una dimostrazione della sua insolubilità, come poi successe effettivamente per il suo primo problema, sull’ipotesi del continuo, e per il de- cimo problema, sull’esistenza di soluzioni di equazioni diofantee. Naturalmente, soluzioni negative punteggiano l’intera storia della matematica. L’irrazionalità di f2, scoperta dai Pitagorici, altro non era che una dimostrazione dell’in- solubilità dell’equazione x2-2 - 0 nei numeri razionali. E nel secolo xix si dimostrò l’insolubilità di problemi sia geometrici, quali la quadratura del cerchio e la trisezio- ne dell’angolo mediante riga e compasso, che algebrici, quale la soluzione mediante radicali delle equazioni di grado maggiore del quarto. Ma è stato nel secolo xx che il fenomeno ha raggiunto massa critica, anche grazie alla sua chiarificazione attraverso il teorema di Godei. E con queste avvertenze, che cioè un problema appa- rentemente interessante o risolubile possa poi risultare deludente o insolubile, che proponiamo una breve lista di problemi aperti della matematica: da quello che può venire considerato il più antico a uno dei più recenti, pas- sando attraverso i due che vengono universalmente con- siderati come i più profondi, ossia l’ipotesi di Riemann e la congettura di Poincaré. 1. Aritmetica: il problema dei numeri perfetti (300 a. C.). La teoria dei numeri è generosa di problemi che, co- me l ’ultimo teorema di Fermat, sono facilissimi da enun- ciare e difficilissimi da risolvere. Il più antico problema aperto della matematica è appunto di questo genere. Nel secolo vi a. C. i Pitagorici avevano definito un nu- mero perfetto come un numero che è uguale alla somma dei suoi divisori, escluso ovviamente il numero stesso, e
PROBLEMI INSOLUTI 16 7 inclusa l’unità. Per esempio, sono perfetti 6 e 28, i cui di- visori sono rispettivamente 1-2-3, e 1-2-4-7-14. Nella Creazione del mondo (III) il filosofo ebreo del primo se- colo Philo Judaeus sostenne che Dio creò il mondo in sei giorni proprio perché il numero 6 è perfetto, e nella Città di Dio (XI, 30) Agostino si associò. Oltre a 6 e 28, i Greci conoscevano anche 496 e 8128. Il quinto numero perfetto, 33 550336, apparve per la prima volta in un codice tedesco del xv secolo, e oggi se ne conoscono in tutto soltanto una quarantina. Verso il 300 a.C. Euclide, nella proposizione IX.36 degli Ele- menti, dimostrò in generale che se 2"+G1 è primo allora 2"(2"+1-1) è perfetto. La verifica è praticamente imme- diata, ma molto meno immediato è dimostrare che i nu- meri perfetti pari sono esattamente quelli del tipo trova- to da Euclide. La dimostrazione che cosi è fu data da Eu- ler nel 1737, e sfrutta lo stesso procedimento da lui usato per dimostrare che i numeri primi sono infiniti, e che avrebbe portato agli sviluppi descritti piu oltre, relativi all’ipotesi di Riemann. I numeri perfetti pari sono dunque strettamente lega- ti ai numeri primi del tipo 2W-1, detti primi diMersenne. Euler scopri un efficiente metodo per verificare se 2'"-1 è primo, che si basa sul cosiddetto piccolo teorema di Fer- mai". il fatto cioè che se p è un numero primo, allora 2p_1 è uguale a 1 nel gruppo ciclico con p elementi (o, come si dice, congruo a 1 modulo p). Poiché però, come sua abitudine, Fermat aveva solo enunciato il suo piccolo teorema, Euler fu costretto a di- mostrarlo. Egli diede una prima dimostrazione nel 1737, ma nel 1750 ritornò sull’argomento, e per dare la sua se- conda dimostrazione inaugurò la teoria delle congruenze, ossia la teoria dei gruppi ciclici con un numero primo di elementi, che in seguito divenne uno degli strumenti più fecondi della teoria dei numeri. Il criterio di Euler è tuttora usato nella ricerca di gran- di numeri primi al calcolatore, e alla fine del Novecento il più grande primo (di Mersenne) conosciuto era il già
i68 CAPITOLO QUINTO citato 269'259’- 1, da cui si può ricavare il più grande nu- mero perfetto conosciuto. Come il successivo teorema di Fermat, anche lo studio dei numeri perfetti ha dunque portato allo sviluppo di parti essenziali della moderna teoria dei numeri. Ma un primo problema rimane aperto: se ci siano o no numeri perfetti dispari. Se la risposta è positiva, in teoria un esempio si po- trebbe trovare mediante una ricerca esaustiva, per esem- pio al calcolatore. In pratica, però, tutto dipende da quanto grande sia il più piccolo numero perfetto dispa- ri. Se la risposta è invece negativa, i risultati congiunti di Euclide ed Euler caratterizzano allora completamente i numeri perfetti. In ogni caso, un secondo problema rimane aperto: se ci siano cioè infiniti numeri perfetti pari. O, equivalente- mente, se ci siano infiniti numeri primi di Mersenne. 2. Analisi complessa: l’ipotesi di Riemann (1859). I numeri interi si possono sempre scomporre, rispetto alla somma, in addendi uguali a 1. Rispetto al prodotto, invece, esistono numeri primi che sono indecomponibi- li, ossia che non ammettono fattori diversi da se stessi e da 1. I numeri primi sono gli atomi del mondo numeri- co, e il loro studio riveste un ruolo analogo a quello del- la fisica delle particelle per il mondo fisico. I primi risultati profondi in questo studio furono ot- tenuti dai Greci, i quali provarono che ogni numero si può decomporre in maniera univoca come prodotto di numeri primi, e che i numeri primi sono infiniti, benché diventino via via più rari. Una dimostrazione diretta dell’infinità dei numeri pri- mi appare negli Elementi (IX, 20) di Euclide, ma una di- mostrazione sorprendentemente indiretta fu data da Eu- ler nel 1737. Egli notò che, poiché ogni numero si può scomporre in fattori primi, al variare di n variano in realtà
PROBLEMI INSOLUTI 169 tutti i possibili prodotti di numeri primi, con tutti i pos- sibili esponenti. Se ci fosse solo un numero finito di pri- mi, la somma sarebbe dunque finita, perché sarebbe il prodotto di un numero finito di progressioni geometriche del tipo Ma la somma precedente è invece infinita, perché le • Il . . 1 due frazioni - e — contribuiscono almeno —, e analoga- 3 4 2 mente le successive quattro, otto, sedici,... I numeri primi sono 25 fino a 100, 168 fino a 1000, 1229 fino a 10 000, 9592 fino a 100 000. Una distribu- zione che, come notarono Euler e Gauss, decresce in ma- niera approssimativamente logaritmica, nel senso che i 10" numeri primi fino a 10" sono circa — : 25 fino a 100, 2n 167 fino a 1000,1250 fino a 10 000,10 000 fino a 100 000. In termini generali, e usando i logaritmi naturali, si può dunque congetturare il teorema dei numeri primi, secon- do il quale il numero dei primi fino a n si avvicina sem- pre più al rapporto n log^ Nel 1859 Bernhard Riemann, cercando di dimostrare il teorema, notò che il problema è legato al comporta- mento della funzione Z/ x 1 1 1 1 £(z) — H-----1---1---1---1—. 2Z 3Z nz La connessione della funzione f con i numeri primi è apparente dalla precedente dimostrazione di Euler, che
i?o CAPITOLO QUINTO mostra però che per z minore o uguale a 1 la funzione £ ha un valore infinito: per questo motivo Riemann estese la funzione dai numeri reali a quelli complessi, mediante una tecnica detta di prolungamento analitico (sostan- zialmente, si definisce il valore di £ come limite non del- le somme parziali, ma delle loro medie). La funzione £ ammette infiniti zeri complessi non rea- li, numeri cioè del tipo z = x + iy con y #= 0 e £ (z) = 0, ed essi si trovano tutti nella striscia definita da x fra 0 e 1. Riemann congetturò che essi si devono trovare tutti sul- la retta definita da x = — : una congettura nota come ipo- tesi di Riemann, che costituisce il più importante pro- blema aperto della matematica moderna. A tutt’oggi di essa si sa soltanto che infiniti zeri si trovano effettivamen- te sulla giusta retta, come provò Hardy nel 1914, e che co- si è per i primi zeri, fino a qualche miliardo di essi. Per arrivare al teorema dei numeri primi non era co- munque necessario conoscere la funzione f nei dettagli descritti dall’ipotesi di Riemann: nel 1896 il teorema fu dimostrato da Jacques Hadamard e Charles Jean de la Vallèe Poussin, e la dimostrazione richiese soltanto la pro- va del fatto che nessuno zero della funzione £sta sulla ret- ta definita da x = 1. L’ipotesi di Riemann rimase dunque aperta e divenne parte drddd ottavo problema di Hilbert. Questo proponeva anche varie altre domande sui numeri primi, fra le quali le congetture di Goldbach, del 1742, e dei primi gemelli-, la prima asserisce che ogni numero pari maggiore di 2 è la somma di due primi, e la seconda che ci sono infiniti nu- meri primi la cui differenza è 2 (come 3 e 5, o 10 006 427 e 10006429). Anche queste due congetture, come l’ipo- tesi di Riemann, rimangono tuttora indimostrate. Hilbert propose anche di studiare il comportamento dei numeri primi (ideali) su campi arbitrari. Una versio- ne dell’ipotesi di Riemann per un analogo della funzione J associata a curve algebriche su campi finiti fu proposta nel 1924 da Emil Artin e dimostrata nel 1940-41 da An-
PROBLEMI INSOLUTI 171 dré Weil, premio Wolfnel 1979. Lo stesso Weil propose, nel 1949, un analogo dell’ipotesi di Riemann per varietà algebriche multidimensionali su campi finiti, che diven- ne nota come congettura di Weil. Essa fu dimostrata nel 1973 da Pierre Deligne, che ricevette per questo lavoro la medaglia Fields nel 1978. La dimostrazione di Deligne fu il primo grande risultato ottenuto mediante un arse- nale di tecniche estremamente astratte di geometria al- gebrica (quali gli schemi e la coomologia /-adica) intro- dotte negli anni ’60 da Alexandre Grothendieck, a sua volta medaglia Fields nel 1966. L’apparente allontanamento dalle problematiche e dal- le tecniche della teoria dei numeri classica non deve co- munque far credere che non ci siano ricadute su di essa: dal risultato di Deligne segue per esempio una congettu- ra di Ramanujan di inizio secolo, e i metodi usati da De- ligne sono gli stessi che hanno permesso a Faltings e Wi- les di dimostrare la congettura di Mordell nel 1983, e il teorema di Fermat nel 1995. L’ultimo quarto del secolo ha dunque testimoniato l’avvento di una nuova fase geo- metrico-algebrica della teoria dei numeri, dopo quelle aritmetica e analitica inaugurate rispettivamente da Fer- mat ed Euler, con il metodo di discesa infinita e l’intro- duzione della funzione 6,. Una volta risolti problemi di teoria dei numeri con tec- niche analitiche o geometrico-algebriche rimane però da capire se queste tecniche siano necessarie, o se non sia in- vece possibile trovare dimostrazioni classiche, che non facciano intervenire concetti estranei alla teoria dei nu- meri stessa. Tali dimostrazioni si chiamano «elementa- ri», dal punto di vista della complessità logica: che non va confusa con la complessità matematica, visto che l’u- so di tecniche più ristrette tende appunto a produrre di- mostrazioni più complicate. Nel caso del teorema dei numeri primi Paul Erdòs e Ade Selberg hanno fornito nel 1949 una dimostrazione elementare del teorema, che ha fruttato al secondo la me- daglia Fields nel 1950, e a entrambi il premio Wolf nel
CAPITOLO QUINTO 172 1983-84 e 1986, rispettivamente. Dimostrazioni elemen- tari delle congetture di Ramanujan, Mordell e Fermat non sono ancora state trovate, e si pensa che esse po- trebbero avere lunghezza e complessità proibitive. 3. Topologia algebrica: la congettura di Poincaré (1904). La topologia algebrica è lo studio di proprietà topolo- giche attraverso metodi algebrici. Il primo esempio di que- sto approccio è la cosiddetta caratteristica di Euler di una superficie, in realtà già nota a Descartes nel 1639 e a Leib- niz nel 1675, ma riscoperta e pubblicata da Euler nel 1750. L’osservazione iniziale è che, dato un poliedro con- vesso, tra il numero V dei suoi vertici, L dei suoi lati e F delle sue facce sussiste la seguente relazione: V-L + F = 2. Per esempio, nel caso di un cubo si hanno 8 vertici, 12 la- ti e 6 facce, e dunque 8 - 12 + 6 = 2. La relazione continua a valere per i grafi disegnati su una sfera, il che mostra appunto che si è di fronte a una proprietà topologica: se si gonfia un poliedro di gomma fino a farlo diventare una sfera, i suoi lati individuano un grafo su di essa; viceversa, schiacciando le facce di un grafo su una sfera di gomma si ottiene un poliedro. Ciò che rende la cosa interessante è che la quantità V-L + F dipende soltanto dal tipo di superficie su cui il grafo è disegnato: essa vale 2 - 2n se la superficie è una sfera con n manici, e 2 - n se la superficie è una sfera con n strisce di Mòbius. Per esempio, il valore è 2 per la sfe- ra, 1 per il piano proiettivo, 0 per il toro e la bottiglia di Klein. Sapendo se una superficie bidimensionale chiusa è orientabile o no, e quale sia la sua caratteristica di Eu- ler, permette dunque di classificarla completamente. Per superfici a 3 (o più) dimensioni un analogo della caratteristica di Euler è stata definita da Poincaré in una serie di lavori tra il 1895 e il 1900, ma non basta a classi-
PROBLEMI INSOLUTI 173 ficarle. L’idea è allora di rivedere i risultati precedenti in maniera più elaborata, associando a una superficie bidi- mensionale non soltanto un numero, ma un gruppo fon- damentale-. si fissa un punto sulla superficie, e si consi- derano i percorsi su di essa che partono dal punto e vi ritornano (l’applicazione di un percorso a un altro è il percorso ottenuto percorrendo prima l’uno e poi l’altro; il percorso neutro è quello che non si muove dal punto; l’inverso di un percorso dato è il percorso effettuato nel senso opposto). Poiché si sta trattando di proprietà topologiche, i per- corsi devono essere considerati come se fossero di gom- ma: due percorsi che si possono trasformare uno nell’al- tro tirandoli o contraendoli, senza romperli, sono so- stanzialmente uguali. Questa identificazione di percorsi si chiama omotopia, e per questo motivo il gruppo fon- damentale di una superficie si chiama anche primo grup- po di omotopia. Il gruppo fondamentale della sfera è banale: qualun- que percorso si può contrarre a un punto. Inoltre, la sfe- ra è l’unica superficie chiusa orientabile il cui gruppo fondamentale sia banale: se infatti una superficie ha al- meno un manico, un percorso che passi attorno al mani- co non si può contrarre a un punto. Il gruppo fonda- mentale è dunque sufficiente a distinguere la sfera da ogni altra superficie orientabile, e più in generale superfici bi- dimensionali di tipo diverso tra loro. Poincaré estese la nozione di gruppo fondamentale a superfici a 3 e più dimensioni, e sperò che essa potesse portare a una loro classificazione topologica di natura al- gebrica. Le cose sono però risultate essere più complica- te del previsto, e si sa oggi che i gruppi fondamentali non sono sufficienti a caratterizzare le superfici tridimensio- nali. Per questo motivo, la classificazione di Thurston di cui abbiamo parlato in precedenza fa un uso essenziale di concetti non solo algebrici ma anche geometrici, qua- li i possibili tipi di geometrie che si possono assegnare al- le costituenti di una superficie.
174 CAPITOLO QUINTO Nel 1904 Poincaré formulò una congettura che si ri- feriva non a superfici qualunque, ma alla sola ipersfera, e chiedeva se essa è l'unica superficie tridimensionale chiusa e orientabile il cui gruppo fondamentale è bana- le. Una risposta positiva seguirebbe dalla caratterizza- zione delle superfici tridimensionali di Thurston, che però non è ancora stata dimostrata: anzi, proprio la con- gettura di Poincaré è uno degli ostacoli più forti al com- pletamento della sua dimostrazione. La cosa interessante è che, una volta estesa la conget- tura alle sfere di dimensione qualunque, l’unico caso che rimane aperto è proprio quello originario di Poincaré. Per quanto riguarda le sfere a 5 o più dimensioni, la con- gettura di Poincaré è infatti stata provata nel 1960 da Stephen Smale, che ha ottenuto per questo lavoro la me- daglia Fields nel 1966 (in seguito Smale divenne uno dei più noti intellettuali statunitensi a prendere posizione contro la guerra in Vietnam, e l’Università della Califor- nia arrivò a sospendergli lo stipendio). Per quanto ri- guarda invece la sfera a 4 dimensioni, la congettura di Poincaré segue dalla caratterizzazione di Freedman del- le superfici quadridimensionali, in un modo analogo a quello delle superfici bidimensionali visto sopra. Indipendentemente dalle soluzioni, le difficoltà di di- mostrazione della congettura di Poincaré hanno mostra- to che l’informazione codificata dal gruppo fondamen- tale è troppo limitata. Per questo motivo, nel 1935 Wi- told Hurewicz ha introdotto una serie infinita di gruppi di omotopia per la sfera a n dimensioni. Il gruppo fonda- mentale è il primo della serie, e i primi n sono i cosiddet- ti gruppi di omologia, che si ottengono considerando per- corsi a più dimensioni, invece che soltanto unidimensio- nali: per esempio, non soltanto elastici distesi sulla sfera, ma palloncini (s)gonfiabili, e cosi via. Il risultato fondamentale sui successivi gruppi di omotopia della sfera a n dimensioni è il teorema di fini- tezza dimostrato nel 1951 da Jean-Pierre Serre: tutti que- sti gruppi sono finiti, con la sola eccezione del gruppo
PROBLEMI INSOLUTI 175 {2n - 1)-esimo quando n è pari, per esempio del terzo gruppo della sfera bidimensionale. Questo risultato è val- so a Serre la medaglia Fields nel 1954, e ha contribuito al- l’assegnazione del premio Wolf nel 2000. La determinazione precisa di questi successivi gruppi di omotopia è comunque risultata essere molto compli- cata. Nel 1950 Lev Pontryagin calcolò i primi due e Rokh- lin il terzo, e nel 1951 Serre il quarto. Per poter effettua- re il suo calcolo Pontryagin dovette determinare quando una superficie compatta a n dimensioni è il bordo di una superficie a n + 1 dimensioni: egli trovò una condizione necessaria, che nel 1954 René Thom dimostrò anche es- sere sufficiente. Da quest’ultimo lavoro nacque l’importante teoria del cobordismo, per la quale Thom ha ottenuto la medaglia Fields nel 1958. Tra le applicazioni più spettacolari del cobordismo vi sono due risultati che portarono all’asse- gnazione delle medaglie Fields nel 1962 e 1966: il teore- ma di Milnor sulle sfere esotiche, che in questo contesto si può riformulare dicendo che in dimensione 7 ci sono sfere che non sono il bordo di una palla, e il teorema del- l’indice di Atiyah-Singer. L'estensione, da parte di Mil- nor e Smale, del cobordismo nell’Z>-cobordismo (Z? è l’i- niziale di homotopy) ha poi permesso a Novikov di otte- nere la medaglia Fields nel 1970, per la classificazione delle varietà differenziabili di dimensione maggiore o uguale a 5. 4. Teoria della complessità: il problema P = NP (1972). La definizione di Turing di algoritmo divide le funzio- ni numeriche in due classi: calcolabili e non. Questa sud- divisione non costituisce però che una prima approssi- mazione, perché molte funzioni che sono calcolabili in teoria non lo sono affatto in pratica. Per esempio, un al- goritmo la cui esecuzione richieda un tempo più lungo della durata dell’universo, o anche solo di una vita urna-
176 CAPITOLO QUINTO na, non può certo essere ritenuto concretamente esegui- bile, benché possa esserlo in astratto. Da un punto di vista applicativo, è dunque necessario restringersi ad algoritmi che abbiano tempi di esecuzio- ne sufficientemente veloci. Nel 1965 Edmonds e Cobham proposero, come seconda approssimazione, la distinzio- ne fra algoritmi eseguibili in tempo polinomiale e non. Il tempo di esecuzione viene qui misurato mediante il nu- mero di passi eseguiti dal calcolatore, e la variabile del polinomio corrisponde alla dimensione dei dati su cui . 'algoritmo opera, per esempio alla loro lunghezza: cosi un algoritmo quadratico non richiede più di 100 passi su numeri di 10 cifre, più di 10000 passi su numeri di 100 cifre, e cosi via. Naturalmente, il tempo di esecuzione di un algoritmo dipende fortemente dal tipo e dalla potenza del calcola- tore che viene usato per eseguirlo. Sorprendentemente, però, se un algoritmo opera in tempo polinomiale su un particolare calcolatore, esso continua a operare in tem- po polinomiale su qualunque altro: detto altrimenti, la differenza fra i vari modelli di calcolatori e le loro varie implementazioni si può sempre contenere in un fattore polinomiale, che può essere combinato con un tempo di esecuzione polinomiale senza mutarne la natura. L’esse- re eseguibile in tempo polinomiale costituisce dunque una caratteristica intrinseca, e non accidentale, di un al- goritmo. Fra gli algoritmi di cui abbiamo parlato in preceden- za, il metodo del simplesso è, per esempio, non polino- miale: per una infinità di dati l’algoritmo richiede un tem- po esponenziale per fornire la risposta. Il che non signi- fica affatto che il problema stesso della programmazione lineare non sia risolubile in tempo polinomiale, ma sol- tanto che la particolare soluzione offerta dal metodo del simplesso non lo è. E, infatti, nel 1979 Khachian ha tro- vato un algoritmo alternativo, detto metodo degli ellis- soidi, che risolve il problema della programmazione li- neare in tempo polinomiale.
PROBLEMI INSOLUTI 177 La classe dei problemi per i quali una soluzione poli- nomiale esiste si indica con il simbolo P. Nel 1972 Stephen Cook, Richard Karp e Leonid Levin hanno scoperto una classe potenzialmente più ampia di P, indicata con il simbolo NP, i cui problemi, benché non necessa- riamente risolubili in tempo polinomiale, lo sono «qua- si»: nel senso che, di ogni proposta soluzione, si può ve- rificare in tempo polinomiale se essa funziona oppure no. La differenza tra P e NP è dunque la seguente: per stare nella prima classe è necessario che un problema ammet- ta un metodo per trovare la soluzione in tempo polino- miale, mentre per stare nella seconda classe è sufficiente che un problema ammetta un metodo per verificare la so- luzione in tempo polinomiale. Ci si può facilmente convincere che trovare una solu- zione è più difficile che verificarla. Per esempio, verifi- care che un certo numero di telefono corrisponde a una certa persona è facile, perché basta consultare l’elenco te- lefonico in ordine alfabetico; ma trovare la persona che ha un certo numero di telefono è difficile, perché richie- de una ricerca esaustiva nell’intero elenco. Più matematicamente, verificare che 4 294 967 297 = 641 x 6 700 417 è un gioco da ragazzi, ma trovare la scomposizione ri- chiede l’ingegno di Euler o la potenza di un computer. E il problema della scomposizione in fattori è precisamen- te uno di quelli che stanno in NP, appunto perché è faci- le verificare se due numeri sono o no la scomposizione di un terzo numero. Ma non è noto se il problema stia an- che in P, se cioè ci sia un metodo veloce per verificare se un numero è scomponibile, o se invece è primo (la ri- sposta è positiva se l’ipotesi di Riemann è vera). Proprio su quest’ultimo fatto si basa la crittografia a chiave privata, la cui idea è la seguente. Il mittente e il de- stinatario possiedono un numero intero molto grande, che funge da chiave personale di codifica e decodifica e viene tenuto segreto. Il mittente che manda un messag-
i78 CAPITOLO QUINTO gio m al destinatario lo codifica mediante la propria chia- ve c, trasformandolo in me. Il destinatario che riceve il messaggio me lo codifica a sua volta mediante la propria chiave d, trasformandolo in med, e lo rimanda al mitten- te. Questi decodifica il messaggio mediante la propria chiave c, trasformandolo in md, e lo rimanda al destina- tario, il quale finalmente decodifica il messaggio me- diante la propria chiave d, ritrovando m. L’efficienza del metodo si basa sul fatto che la doppia decodifica del mes- saggio richiede decomposizioni in fattori di numeri mol- to grandi, che si possono fare velocemente soltanto co- noscendo le chiavi. Lo svantaggio è invece che il metodo richiede una doppia codifica e decodifica, da parte sia del mittente che del destinatario. Per aggirare l'ostacolo si usa la crittografia a chiave pub- blica, la cui idea è simile ma più complicata. Ciascun de- stinatario possiede due numeri interi molto grandi che fungono da chiavi: una c di codifica, che viene resa pub- blica, e l’altra d di decodifica, che viene tenuta segreta. Il mittente che manda un messaggio m al destinatario lo co- difica mediante la chiave pubblica c, trasformandolo in mc, e il destinatario decodifica questo messaggio median- te la chiave segreta d, trasformandolo in (mc¥ = mcd. Affin- ché la decodifica abbia successo il messaggio decodifica- to dovrà essere uguale a quello originale, cioè cd dovrà essere uguale a 1: benché questo sia impossibile letteral- mente, il piccolo teorema di Fermat assicura che, dati due numeri p e q, se cd è uguale a 1 modulo (p - I)Q - 2) al- lora ma' è uguale a m modulo pq. L’efficienza del metodo si basa sul fatto che per la codifica e la decodifica del mes- saggio basta la conoscenza del prodotto pq, che è an- ch’esso reso pubblico, ma il ritrovamento della chiave di decodifica d a partire dalla chiave di codifica c richiede la conoscenza di (p - 2)Q - 2), che si ottiene dalla scom- posizione di pq, la quale non si può fare velocemente. In generale, di migliaia di problemi di interesse teori- co o di utilità applicativa si sa oggi che essi stanno in NP, senza sapere se essi stiano anche in P. Esempi collegati a
PROBLEMI INSOLUTI 179 questioni che abbiamo considerate in precedenza sono la soddisfacibilità di formule proposizionali, l’esistenza di soluzioni intere di equazioni diofantee quadratiche, e la possibilità di colorare una carta con tre colori. Un esempio di problema variazionale, per alcuni casi del qua- le una soluzione empirica si può ottenere con bolle di sa- pone, è il problema di Steiner, data una carta geografica, collegare le città con strade in modo che la lunghezza complessiva del reticolo stradale sia minima (la soluzio- ne che si ottiene con bolle di sapone è ottimale local- mente, ma non sempre globalmente). Un esempio simi- le molto noto, a causa del suo interesse applicativo, è il problema del commesso viaggiatore-, data una carta con città collegate da strade, trovare un percorso di lunghez- za minima che passi per ciascuna città esattamente una volta. Una delle scoperte sorprendenti di Cook, Karp e Le- vin fu che tutti questi problemi (con la sola possibile ec- cezione della scomponibilità), così come migliaia di altri nelle aree più disparate della matematica pura e applica- ta, sono sostanzialmente equivalenti: trovare una solu- zione polinomiale per uno qualunque di essi significhe- rebbe trovarne una per tutti, perché esistono traduzioni polinomiali di ciascuno di essi negli altri. Per questi ri- sultati Cook e Karp ricevettero il Turing Award, rispetti- vamente nel 1982 e 1985. Levin invece finì in prigione co- me dissidente, e dopo essere stato liberato per interces- sione di Kolmogorov emigrò dall’Unione Sovietica. Trovare una soluzione polinomiale, oppure dimostra- re che essa non esiste, per uno qualunque dei problemi equivalenti isolati da Cook, Karp e Levin è risultato fi- nora impossibile: il problema se P e NP siano o no la stes- sa classe ha dunque acquistato il sapore di una sfida, ed è divenuto il più noto problema aperto dell’informatica teorica. Per enunciare una riformulazione puramente mate- matica del problema, ricordiamo che il famoso Nullstel- lensatz di Hilbert, del 1890, forniva una condizione ne-
180 CAPITOLO QUINTO cessarla e sufficiente affinché un sistema finito di equa- zioni polinomiali a coefficienti complessi abbia una so- luzione. Brownawell ha dimostrato nel 1987 che il pro- blema si può risolvere in tempo esponenziale, ma non è noto se si possa anche risolvere in tempo polinomiale. Re- stringendo i coefficienti dei polinomi e le soluzioni del si- stema a soli numeri razionali (o anche ai soli numeri 0 e 1), una soluzione polinomiale del problema esiste se e so- lo se P è uguale a NP. La nostra trattazione si conclude dunque, appropriatamente, all’insegna del vitale spirito di Hilbert che l’ha pervasa.
Conclusione Giunti al termine del nostro percorso attraverso la ma- tematica del ’900, non ci rimane altro da fare che ricapi- tolarne le tappe. La natura diacronica e di collage dell’e- sposizione, peraltro annunciata, richiede forse un ap- proccio complementare, che isoli dalla trama del tessuto i principali fili. Li riproponiamo qui sotto forma di ta- belle ricapitolative. Problemi e congetture. Anzitutto, sono stati i problemi e le congetture ad aver- ci guidato nella storia della ricerca delle loro soluzioni, e ricordiamo qui i più importanti: 300 a C. Euclide numeri perfetti 1611 Keplero configurazioni di sfere di massima densità 1637 Fermat soluzioni intere di x"+y’=z’ 1640 Fermat primi del tipo 22 +1 1742 Goldbach interi pari come somme di due primi 1847 Plateau superfici minimali 1852 Guthrie colorazione di carte con quattro colori 1859 Riemann zeri della funzione £ 1883 Cantor ipotesi del continuo 1897 Mertens limite della funzione M di Mobius 1902 Burnside (l) gruppi periodici finitamente generati 1904 Poincaré caratterizzazione dell’ipersfera 1906 Burnside (n) gruppi semplici di ordine dispari 1922 Mordell infinite soluzioni delle equazioni diofantee 1928 Hilbert decisione della logica del prim’ordine 1933 Robbins assiomatizzazione delle algebre booleane
182 CONCLUSIONE 1949 Weil ipotesi di Riemann su campi finiti 1955 Taniyama parametrizzazione delle curve ellittiche 1962 Shafarevich riduzioni di equazioni modulo numeri primi 1972 Cook, Karp e Levin P = NP 1979 Conway e Norton Chiaro di Luna Una menzione separata richiedono invece i problemi di Hilbert del 1900, che sono stati uno dei due motivi conduttori della nostra esposizione, e di cui abbiamo ci- tato i seguenti: primo ipotesi del continuo secondo consistenza dell’analisi terzo scomposizione del tetraedro quarto geodetiche in varie geometrie quinto gruppi localmente euclidei e di Lie sesto assiomatizzazione della probabilità e della fisica settimo trascendenza di eTe 2’2 ottavo ipotesi di Riemann, congettura di Goldbach decimo soluzioni delle equazioni diofantee diciottesimo gruppi cristallografici, problema di Keplero diciannovesimo analiticità delle soluzioni di problemi variazionali ventesimo esistenza delle soluzioni di problemi variazionali ventitreesimo calcolo variazionale Risultati. L’altro filo conduttore della nostra esposizione sono stati i lavori dei vincitori delle medaglie Fields e dei pre- mi Wolf, di una buona parte dei quali abbiamo tentato di citare i risultati più significativi. Delle medaglie Fields ab- biamo ricordato: 1936 Douglas 1950 Schwartz 1950 Selberg 1954 Kodaira 1954 Serre 1958 Roth 1958 Thom problema di Plateau teoria delle distribuzioni teorema dei numeri primi classificazione delle varietà algebriche a 2 dimensioni gruppi di omotopia delle sfere a n dimensioni approssimazioni razionali di irrazionali algebrici teoria del cobordismo
CONCLUSIONE 183 1962 Hòrmander operatori ipoellittici 1962 Milnor struttura esotica della sfera a 7 dimensioni 1966 Atiyah K-teoria, teorema dell’indice 1966 Cohen indipendenza dell’ipotesi del continuo 1966 Grothendieck schemi, coomologia /-adica 1966 Smale congettura di Poincaré in dimensione > 5 1970 Baker estensione dei teoremi di Lindemann e Gelfond 1970 Hironaka risoluzione di singolarità di varietà algebriche 1970 Novikov classificazione delle varietà differenziabili di dimensione > 5 1970 Thompson seconda congettura di Burnside 1974 Bombieri teoria dei numeri, superfici minimali 1978 Deligne congettura di Weil 1983 Connes algebre di operatori di Von Neumann 1983 Thurston classificazione delle superfici a 3 dimensioni 1983 Yau varietà di Calabi-Yau 1986 Donaldson struttura esotica dello spazio a 4 dimensioni 1986 Faltings congetture di Shafarevich e Mordell 1986 Freedman classificazione delle varietà a 4 dimensioni 1990 Jones invarianti di nodi 1990 Witten teoria delle superstringhe 1994 Bourgain sottospazi di Hilbert di spazi di Banach 1994 Yoccoz teorema kam, insieme di Mandelbrot 1994 Zelmanov prima congettura di Burnside ristretta 1998 Borcherds congettura Chiaro di Luna 1998 Gowers spazi di Banach (non) simmetrici 1998 Kontsevich invarianti di nodi 1998 McCullen insieme di Mandelbrot Dei premi Wolf abbiamo invece ricordato: 1978 Siegei 1979 Weil 1980 Kolmogorov 1982 Whitney 1983-84 Erdòs 1984-85 Kodaira 1986 Eilenberg, Selberg 1988 Hòrmander 1989 Milnor 1990 De Giorgi 1992 Thompson
184 CONCLUSIONE 1993 Mandelbrot (fìsica) 1994-95 Moser 1995-96 Langlands, Wiles 2000 Serre Oltre ai lavori dei matematici abbiamo anche citato, almeno di sfuggita, i risultati di alcuni informatici che hanno ricevuto, a loro volta, il più alto riconoscimento nel loro campo, e cioè il Turing Award: 1969 Minsky Intelligenza Artificiale 1971 McCarthy Intelligenza Artificiale 1975 Newell e Simon Intelligenza Artificiale 1976 Scott semantica del Lambda Calcolo 1982 Cook teoria della complessità 1985 Karp teoria della complessità Infine, alcuni lavori di matematica applicata sono di- rettamente collegati a risultati che hanno portato i loro autori o altri al premio Nobel, in varie discipline: 1932 Heisenberg fisica meccanica quantistica 1933 Schròdinger fisica meccanica quantistica 1962 Crick e Watson medicina struttura del dna 1969 Gell-Mann fisica simmetrie dei quark 1972 Arrow economia scelte sociali, equilibrio generale 1975 Kantorovich e Koopman economia programmazione lineare 1976 Prigogine chimica dinamica dei sistemi dissipativi 1979 Glashow, Weinberg e Salam fisica simmetrie della forza elettrodebole 1983 Debreu economia equilibrio generale 1994 Nash economia teoria dei giochi
Bibliografia Citiamo anzitutto una serie di testi a livello espositivo, che posso- no integrare utilmente la nostra trattazione: serge lang, La bellezza della matematica, 1985 (Bollati Boringhieri, 1991). JEAN dieudonne, L'arte dei numeri, 1987 (Mondadori, 1989). keith devlin, Dove va la matematica?, 1988 (Bollati Boringhieri, 1994). peter tannenbaum e robert Arnold, Excursions in Modem Mathe- matics, Prentice Hall, 1995. LAN stewart, Tram bere to Infinity: a Guide to Today’s Mathematics, Oxford University Press, 1996. John casti, Live Golden Rules: Great Theories of20th-Century Mathe- matics, and Why Tbey Matter, Wiley, 1996. Quaderni di «Le Scienze»: Matematica e calcolatore (n. 14, marzo 1984) Numeri, caso e sequenze (n. 45, dicembre 1988) Logica (n. 60, giugno 1991) La matematica della complessità (n. 67, settembre 1992) Modelli matematici (n. 81, dicembre 1994) Matematica computazionale (n. 84, giugno 1995) Insiemi, gruppi, strutture (n. 92, ottobre 1996) Caos, complessità e probabilità (n. 98, ottobre 1997). «The Mathematica! Intelligencer», trimestrale di divulgazione mate- matica della Springer Verlag New York (175 Fifth Avenue, New York, NY 10010, Usa). «Lettera Matematica Pristem», trimestrale di divulgazione matema- tica della Springer Verlag Italia (Via Podgora 4,20122 Milano). Coloro che abbiano una conoscenza più approfondita della mate- matica, potranno invece consultare: Morris kline, Il pensiero matematico, 1972 (Einaudi, 1991), capitoli XLIU-LL
i86 BIBLIOGRAFIA felix browder (a cura di),MathematicalDevelopmentsArisingfrom Hilbert Problems, American Mathematica! Society, 1976. paul halmos, Has Progress in Mathematics Slowed Down?, in «Mathematica! American Association Monthly», (1990), 561-88. carles casacuberta e manuel castellet (a cura di), Mathematical Research Today and Tomorrow: Viewpoints ofSeven Fields Meda- lists, Springer Verlag, 1992. jean-paul pier (a cura di), The Development of Mathematics, 1900- 1950, Birkauser, 1994. jean-michel kantor, Hilbert’s Problems and TheirSequel, in «Mathe- matical Intelligencer», 18 (1996), pp. 21-30. michael monastyrsky, Modem Mathematics in thè Tight ofthe Fields Medals, AK Peters, 1997. michael atiyah e daniel iagolnitzer (a cura di), Fields Medallists’ Lectures, World Scientific, 1997. Umberto Bottazzini, Teoremi e congetture, in «Storia del pensiero fi- losofico e scientifico», Volume 8, Garzanti, 1996, pp. 115-44. stephen smale, Mathematical Problems for thè Next Century, in «Mathematical Intelligencer», 20 (1998), pp. 7-15. jean-paul pier (a cura di), The Development of Mathematics, 1950- 2000, Birkauser, 2000. VLADIMIR ARNOL'D, MICHAEL ATIYAH, PETER LAX e BARRY MAZUR (a cura di), Mathematics Tomorrow, International Mathematical Union, 2000.


Abel, Niels, 72,138. Adian, S. L, 77. Agostino, Aurelio, santo, 167. Alessandro Magno, 133. Alexander, James, 135,138. Apollonio di Perge, 46. Appel, Kenneth, 142,153, 156. Archimede, 7, 28, 32,59. ArnoFd, Vladimir, 132, 186. Arnold, Robert, 185. Arrow, Kenneth, 96, 122, 124, 125, 184. Artin, Emil, 170. Aspect, Alain, 95. Ativah, Michael, 55, 56, 175, 183, 186. Babbage, Charles, 149. Baire, René, 53. Baker, Alan, 43,147,148,183. Banach, Stefan, 33, 40, 114, 116, 183. Bartocci, Claudio, 2. Bayes, Thomas, 118. Bell, John, 94, 95. Beltrami, Eugenio, 44, 106. Berger, Robert, 102. Berkeley, George, 60. Bemoulìi, Daniel, 117,118. Bernoulli, Jacques, 118. Bemoulìi, Jean, 48. Bernstein, Serge, 55. Bieberbach, Ludwig, 98,102. Bohr, Niels, 93,137. Bolyai, Jànos, 31,44. Bolzano, Bernhard, 63. Bombelli, Raffaele, 35. Bombieri, Enrico, 50,104,183. Bonotto, Cinzia, 2. Boole, George, 140. Boone, William, 129. Borcherds, Richard, 137, 183. Borei, Emile, HO. Bottazzini, Umberto, 2, 186. Botvinnik, Mikhail, 150. Bourbaki, Nicolas, 15-17, 19,20. Bourgain, Jean, 116, 183. Bravais, Auguste, 72, 99. Breuil, Christophe, 87. Brouwer, Luitzen, 21, 37-39, 110, 124, 125. Browder, Felix, 186. Buffon, Georges-Louis Ledere, con- te di, 118. Burnside, Williams, 77, 181, 183. Calabi, Eugenio, 82, 138, 183. Cantoni, Lionello, 2. Cantor, George, 11, 12, 15, 22, 35, 37,38,42,46, 63-65,146,181. Cardano, Gerolamo, 35,72, 116. Cartan, Elie, 74. Carter, Jimmy, 95. Cartesio, 10,35,46,51,66,172. Casacuberta, Carles, 186. Castellet, Manuel, 186. Castelnuovo, Guido, 81. Casti, John, 185. Cauchy, Augustin, 32, 61. Cavalieri, Bonaventura, 60, 61. Cayley, Arthur, 72. Chevalley, Claude, 76. Chomsky, Noam, 126-28. Church, Alonzo, 22, 24, 129, 145, 146. Cobham, A., 176. Cohen, Paul, 63, 65,183. Collino, Alberto, 2.
190 INDICE DEI NOMI Condorcet (Marie-Jean-Antoine-Ni- colas de Caritat, marchese di), 95, 96. Connes, Alain, 115,183. Conrad, Brian, 87. Conwav, John, 62, 91,102,138,182. Cook, Stephen, 177, 179, 182, 184. Cournot, Antoine-Augustine, 123. Cox, Donna, 144. Crick, Francis, 97, 184. Cusano, Nicola, 59, 60. Dantzig, George, 120, 121,124. Davis, Martin, 147. De Alfaro, Vittorio, 2. De Giorgi, Ennio, 50,183. De Morgan. Augustus, 35. De Rieie, Hermann, 159. Debreu, Gerard, 122, 124,125,184. Dedekind, Richard, 35,46. Dehn, Max, 31,135, 165. Deligne, Pierre, 85,171,183. Descartes, René, vedi Cartesio. Devlin, Keith, 185. Di Sieno, Simonetta, 2. Diamond, Fred, 87. Dieudonné, Jean, 185. Diofanto di Alessandria, 27, 82, 83. Dirac, Paul, 54, 55. Dirichelet, Peter G. Lejeune, 53. Donaldson, Simon, 58,137, 183. Douady, Adrien, 162. Douglas, Jessie, 47, 50,182. Duns Scoto, 63. Edmonds, Jack, 176. Eilenberg, Samuel, 19, 183. Einstein, Albert, 93,105, 107, 108. Emmer, Michele, 2,52. Enriques, Federigo, 81. Erdós, Paul, 171, 183. Erone di Alessandria, 49. Escher, Maurits, 102,103. Euclide, 10. 16, 27, 30-33, 45, 46, 147,167,168,181. Eudosso di Cnido, 32. Euler, Leonhard, 42-44, 49. 51, 83, 84, 130, 139, 140, 167-69, 171, 172,177. Faltings, Gerd, 85, 171. Farey, John, 64. Fatou, Pierre, 161. Fedorov, E. S., 98, 99. Feit, Walter, 77. Fermat, Pierre de, 27,28,43,46,59- 62,68, 82-86, 117, 139, 140, 147, 166-68,171,172,178, 181. Ferrari, Ludovico, 72. Feynman, Richard, 137. Fields, John Charles, 7. Fischer, Bernd, 76, 137, 138. Fischer, Ernst, 114, 115. Fontana, Niccolò, 71. Ford, Gerald, 95, 96. Fourier, Joseph, 51,53,113, 132. Fraenkel, Abraham, 14, 15, 18, 20, 21,65. Francis, George, 144. Fréchet, Maurice, 114. Freedman, Michael, 58,81,174,183. Frege, Gottlob, 11,12,22,140,141. Frey, Gerhard, 86, 87. Galilei, Galileo, 48, 63. Galois, Evariste, 35, 37, 72, 73, 75, 76. Gauss, Cari Friedrich, 35, 44, 88, 105-7,119,133,147,169. Gelfond, Alexandr, 40, 43, 183. Gell-Mann, Murray, 74,184. Gentzen, Gerhard, 47. Giacardi, Livia, 2. Glashow, Sheldon, 75, 184. Gleason, Andrew, 73. Glennie, Alick, 150. Godei, Kurt, 14,44,47,65,129,146, 157,166. Goldbach, Christian, 170, 181. Gompf, Robert, 58. Gorenstein, Daniel, 71,76. Gowers, William, 116, 183. Gran ville, Andrew, 85. Griess, Robert, 76, 137, 138. Gross, David, 75. Grothendieck, Alexandre, 14,18,20, 21, 116, 171, 183. Gua de Malves, Jean Paul de, 68. Guthrie, Francis, 153,181. Hadamard, Jacques, 170. Haken Wolfgang, 142, 153,156. Hales, Thomas, 87, 88. Halmos, Paul, 186.
INDICE DEI NOMI Hamilton, William, 35,49. Hardy, Godfrey, 6,170. Harriot, Thomas, 87. Hausdorff, Felix, 33,160. Heath-Brown, Roger, 85. Heaviside, Oliver, 53,54. Heawood, Percy, 154. Heesch, Heinrich, 102. Heisenberg, Werner, 114, 115, 184. Helmholtz, Hermann, 136. Hermite, Charles, 42. Hilbert, David, 6,8,15,31,43,46,47, 50,55,63,65,73,88,102,108,112- 16,120,145,147,165,170,179-83. Hironaka, Heisuki, 82,183. Hobbes, Thomas, 109. Hoffman, David, 51,143. Hórmander, Lars,55, 183. Hubbard, John, 2,162. Hurewicz, Witold, 174. Huygens, Christian, 117. lagolnitzer, Daniel, 186. Ipparco di Nicea, 45. Jacobi, Cari, 138. Janko, Zvonimir, 76. Jones, Vaugham, xi, 116,133,136-38, 183. Jordan, Camille, 32, 33,50. Judaeus, Philo, 167. Julia, Gaston, 161. Kahn, Peter, 2. Kakutani, Shizuo, 40, 124. Kantor, Jean-Michel, 186. Kantorovich, Leonid, 121,184. Karp, Richard, 177,179,182,184. Kasparov, Gary, 150, 151. Kelvin, William Thomson (lord Kel- vin), 136,137. Kempe, Alfred, 154, 156. Keplero, Johannes, 87, 88,129,159, 181,182. Kerékjàrtó, Béla, 57. Kervaire, Michel, 57. Khachian, L. G., 176. Khayvàm, Omar, 82. Killing, Wilhelm, 74. Kleene, Stephen, 24. Klein, Felix, 45,78,79, 133,172. Kline, Morris, 185. I9I Knaster, B., 40. Koch, vedi Von Koch, Niels Fabien Helge. Kodaira, Kunihiko, 81, 182,183. Kolmogorov, Andrej, 116, 120, 132, 179,183. Kontsevich, Maxim, 136, 137, 183. Koopmans, Tjalling, 121, 184. Korchnoi, Victor, 150. Kronecker, Leopold, 46. Kummer, Ernst Eduard, 83. Lacan, Jacques, 126. Laczkovich, Miklos, 33. Lagrange, Joseph Louis, 49, 130. Lamé, Gabriel. 83. Lang, Serge,185. Langlands, Robert, 27, 28,184. Laplace, Pierre Simon de, 119, 131. Larsen, Bent, 151. Lawvere, William. 20,21. Lax, Peter, 186. Lebesgue, Henri, 30,32,33,42,114, 120. Leech, John, 89, 91. Lefschetz, Solomon, 40. Legendre, Adrien-Marie, 83. Leibniz, Gottfried Wilhelm. 11, 48, 60,172. Leonardo da Vinci, 49. Levi Civita, Tullio, 107,108. Lévi-Strauss, Claude, 126. Levin, Leonid, 177,179,182. Levy, David, 150. Lie, Sophus, 72-76, 182. Lindemann, Ferdinand, 42,43, 183. Liouville, Joseph, 41,42, 114. Listing, Johann, 78,133. Lobachevsky, Nikolai, 44. Lolli, Gabriele, 2. Lorenz, Edward, 143, 151-53. MacLane, Saunders, 19,21. Mandelbrot, Benoìt B., 144, 159, 162-64,183,184. Markov, Anatoly, 129. Maialoni, Cristina, 2. Mather, John, 71. Mathieu, Émile, 75. Matyasevitch, Yuri, 147. Maupertuis, Pierre Louis Moreau de, 49.
192 INDICE DEI NOMI Maxwell, James Clerk, 58,108. Mazur, Barry, 186. McCarthy, John, 149, 184. McCulloch, Warren, 141. McCullen, Curtis, 163, 183. McCune, William, 142. Meeks, William, 51, 143. Menger, Karl, 161. Mersenne, Marin, 167, 168. Mertens, Franz, 159, 181. Mills, Robert, 58, 74. MiInor,John,56,57,59,79,175,183. Minsky, Marvin, 149,184. Mischaikov, Konstantin, 153. Mittag-Leffler, Gòsta, 7. Mòbius, Augustus, 78,133,159,172, 180,183. Moise, 57. Monastyrsky, Michael, 186. Montgomery, Deane, 73. Mordell, Leo, 84, 85, 147, 171 172, 181. Morgan, Augustus de, 154. Morgenstem, Oscar, 111. Mori, Shigefumi, 82. Moro, Andrea, 2. Morse, Marston, 69. Moser, Jùrgen, 132, 133,184. Mrozek, Marian, 153. Nash, John, 111,112,184. Newell, Alien, 149,184. Newton, Isaac, 46,48,49,60,61,66, 68, 105,129,130. Nicola di Oresme, 45. Nobel, Alfred, 7. Norton, Simon, 138,182. Novikov, Pavel, 129. Novikov, Petr, 77. Novikov, Sergei, 57, 77, 104, 175, 183. Odifreddi, Piergiorgio, vni, xi, xn. Odlyzko, Andrew, 159. Oscar li, re, 131. Pacioli, Luca, 116. Panconesi, Alessandro, 2. Pareto, Vilfredo, 123. Parshin, A. N., 85. Pascal, Blaise, 117. Peano, Giuseppe, 32,33,53. Penrose, Roger, 102, 103. Pflcger, Helmut, 150. Piaget, Jean, 126. Pier, Jean-Paul, 186. Pindaro, x. Pitagora, 40, 44,46, 113, 114. Pitts, Walter, 141. Plateau, Joseph, 50, 181, 182. Podolski, Boris, 93. Poincaré, Henri, 6,29, 45,131,132, 166,172-74,181,183. Pontryagin, Lev, 175. Post, Emil, 127,129,145. Prigogine, Ilya, 71,184. Putnam, Hilary, 147. Rado, Tibor, 57. Raleigh, Walter, 87. Ramanujan, Srinivasa, 171,172. Reagan, Ronald, 95, 96, 126. Regge, Tullio, 2. Ribet, Ken, 86. Ricci Curbastro, Gregorio, 107. Riemann, Bernhard, 32, 33, 43, 57, 78, 106, 107, 133, 159, 166-71, 177,181,182. Riesz, Friedrich, 114, 115. Robbins, Herbert, 142,181. Robinson, Abraham, 59, 62. Robinson, Julia, 147. Rokhlin, Vladimir, 58, 175. Rosen, Nathan, 93. Rosser, John Barkley, 24. Roth, Klaus, 42, 182. Rousseau, Jean-Jacques, 109. Ruffini, Paolo, 72. Russell, Bertrand, 12,21,23,24,140, 141,146. Salam, Abdus, 75, 184. Saussure, Ferdinand de, 126. Scarf, Herbert, 125. Schechtman, Daniel, 104. Schlesinger, Karl, 124. Schmidt, Erhard, 114. Schneider, Thorald, 43. Schròdinger, Erwin, 114,115,184. Schwartz, Laurent, 51,55, 116,182. Scott, Dana, 25,184. Segre, Corrado, 81. Selberg, Ade, 171,182,183. Serre, Jean-Pierre, 174,175,182,184.
INDICE DEI NOMI 193 Severi, Francesco, 81. Shafarevich, Igor, 85, 182,183. Shannon, Claude, 148,149. Siegei, Cari, 43,183. Simon, Herbert, 149, 150,184. Singer, Isadore, 55,175. Sloane, N. J. A., 89. Smale, Stephen, 29, 125 ,174, 175, 183, 186. Smith, Adam, 122, 123, 125, 126. Sonnenschein, Hugo, 125. Sperner, Emmanuel, 39. Steiner, Jacob, 48,179. Steinitz, Ernst, 34,36. Stewart, lan, 185. Tait, Peter, 136. Taniyama, Jutaka, 86, 87,182. Tannenbaum, Peter, 185. Tarski, Alfred, 33,40. Taubes, Clifford, 58. Taylor, Richard, 87. Thatcher, Margaret, 126. Thom, René, 56,66,70,71,175,182. Thompson, John, 77, 183. Thue, Axel, 88,127,128. Thurston, William, 77,79, 133, 173, 174,183. Torres y Quevedo, Leonardo, 149. Tucker, Albert, 112. Turing, zAlan, 129,141,142,145,146, 148, 150,175. Valabrega, Paolo, 2. Vallèe Poussin, Charles-Jean de la, 170. Virgilio Marone, Publio, x. Vitali, Giuseppe, 33. Volterra, Vito, 112. Von Koch, Niels Fabien Helge, 55, 159, 160. Von Neumann, John, 4, 54, 96, 108, 110-12,115,124,136,142,143. Wada, 154. Wald, Abraham, 124. Wallis, John, 35,46. Walras, Léon, 123-25. Wang, Hao, 102. Wantzel, Pierre, 41. Watson, James, 97, 184. Weber, Heinrich, 34. Weierstrass, Karl, 46,48, 62. Weil, André, 85,171,182,183. Weinberg, Steven, 75,184. Weyl, Hermann, 108. Whitney, Hassler, 70, 183. Wilczek, Frank, 75. Wiles, Andrew, 27, 28, 82, 87, 171, 184. Witten, Edward, 56,58, 137,183. Wittgenstein, Ludwig, 65,140. Wolf, Ricardo, 8. Wos, Larry, 142. Yang, Chen Ning, 58,74. Yau, ShingTung, 82,138,183. Yoccoz, Jean Christophe, 133, 163, 183. Zeeman, Christopher, 71. Zelmanov, Efim, 77,183. Zermelo, Ernst, 13-15,18,20,21,65, 110. Zippin, 73.