Carnevale della matematica #73

Il concetto di bellezza matematica è molto apprezzato nelle famose torri d’avorio in cui risiederebbero gli adepti della disciplina. C’è chi potrebbe dire perfino che le torri sono in sé fondate sul concetto di bellezza matematica assai più che sull’avorio (che, vista l’abbondanza di fondi destinati al restauro dei dipartimenti, risulterebbe dispendioso). È un modo per distinguersi dai non addetti ai lavori, per testare lo spiritus mathematicarum

carnevale

Ahimé, mi sono reso conto recentemente che, per quanto meravigliose costruzioni matematiche abbiano condotto ad altrettante meravigliose applicazioni (e lo so bene, ché sono un fisico), a volte bisogna rassegnarsi ai celebri contacci. Ho la sensazione, però, che, mentre si può valutare con una certa obiettività cosa sia bello, cosa definire matematicamente brutto sia, forse per ragioni di political correctness, più soggettivo. Per questo il Carnevale della Matematica Settantatré ha per tema bruttezza matematica. Nei rapporti umani sarebbe ben poco corretto discriminare una persona in base al suo aspetto fisico: diamo un po’ di spazio anche alla matematica brutta… Abbiamo la possibilità di vedere che cosa riceve la poco lusinghiera valutazione di “brutto” da parte di ognuno dei nostri esimi partecipanti al carnevale. Per quanto mi riguarda, non mi piacciono affatto certi giochini con i numeri, quelli di aritmetica,  soprattutto se hanno a che fare con le cifre (le cifre non fanno il numero, come l’abito non fa il monaco, tranne eccezioni: dipendono dalla base in cui è scritto). Dato il ruolo di ospite del carnevale, però, oggi non posso esimermi almeno dal consueto elogio delle meravigliose proprietà del numero corrispondente al carnevale.

Il Messaggio di Arecibo

Il Messaggio di Arecibo

Tanto per cominciare, ho il piacere di ospitare un carnevale contrassegnato da un numero primo (il ventunesimo), proprietà che, disgraziatamente per il tema, aggiunge indubbiamente pregio e bellezza all’ordinale in questione. Mi dicono, inoltre, che si tratta di un numero stellato, il che almeno non dipende dalla base, visto che, analogamente ai numeri triangolari, quadrati, esagonali, eccetera, è una caratteristica di come possono essere disposti settantatré oggetti.

La primalità di 73 gli ha permesso di comparire in un esperimento assai particolare: il messaggio inviato dal radiotelescopio di Arecibo nel 1974 fuori dal sistema solare. Per far sì che fosse intuitivo, anche a per una civiltà che non sappia nulla della nostra, che il messaggio andasse disposto in un rettangolo (come un’immagine), era necessario che il numero di bit trasmessi fosse il prodotto di due primi, e che questi fossero grandi a sufficienza da contenere l’intero messaggio. I primi di cui parliamo sono 23 e il nostro 73.

Infine – cito da Wikipedia – Sheldon Cooper in persona si esprime sulla bellezza del 73, ovviamente nel settantatreesimo episodio di Big Bang Theory: «Il numero più completo è il 73. Il 73 è il 21esimo dei numeri primi. Il suo speculare (37) è il 12esimo e il suo speculare, il 21, è il prodotto di 7 per 3.» Un onore soverchiante.

E con questo vi lascio ai contributi dei partecipanti, che, ricordo, sono stati anche inviati su Twitter man mano che arrivavano, da @martopix e con lo hashtag #carnevaledellamatematica. Buona lettura.

 

  • Il celebre Maurizio Codogno invia contributi dal suo blog sul Post, in particolare i problemini per Pasqua (con relative risposte), tratti dal libro Aha! Solutions di Martin Erickson. Poi c’è stato un post storico, Matematica o teologia?, in cui racconta di come la disputa sugli infinitesimi potrebbe avere un sottofondo teologico, con una sfida tra gesuati e gesuiti. Inoltre ci sono tre pillole: Pericolose commistioni, dove racconta che anche negli USA i politici non sono proprio il massimo quando si parla di matematica; un link al Recreational Mathematical Magazine, semestrale online di matematica ricreativa; un buffo esempio di Aritmetica con l’infinito.
  • Sempre il nostro .mau. scrive anche sulle sue Notiziole, dove questo mese appaiono un’illusione ottica con una base matematica, Test: Math Optical Illusion; si lamenta di un cartello appeso al Pronto Soccorso dell’ospedale di Monza con Matematica ospedaliera; parla di un gioco che lui non crede nessuno abbia provato davvero a fare, Venti domande; la recensione di un ebook della collana Altramatematica, Racconti matematici di Spartaco Mencaroni (altro contribuente a questo carnevale); quella di un libro ormai introvabile, Uno studio in grigio di Augusto Gamba; e quella di un libro di un paio d’anni fa, Pinocchio nel paese dei paradossi di Alessio Palmero Aprosio. Infine, un’altra recensione di un librino di Altramatematica: Partition, un’opera teatrale di Ira Hauptman, tradotta da Martha Fabbri, su Hardy, Ramanujan… e Fermat.
  • Tra i primi contributi (scusate l’ordine sparso) arriva quello di Annalisa Santi per il blog Matetango, intitolato semplicemente, con un omaggio al film di cui si è molto parlato, Matematica, la grande bruttezza, che ripercorre le avventure contenute nel mago dei numeri di Enzensberger.
  • Segue, da Dioniso Dionisi del blog pitagora e dintorni, La matematica è bella o brutta? Ovvero, la scala di tredici semitoni di Bohlen-Pierce. Una sorta di dialogo platonico (ma con Pitagora) a tema musicale.
  • Spartaco Mencaroni mi scrive «Fatto. Brrr che brutto contributo. Eh, ma che volevate? È perfettamente in tema, perbacco!» Non anticipo nulla, ma naturalmente, nonostante la modestia dell’autore, vale una lettura.
  • Roberto Zanasi, sul prooof (non mi ricordo mai con quante “o”), ci invia un’applicazione del teorema egregium di Gauss che è molto utile per… mangiare la pizza con le mani.
  • Leonardo Petrillo, dal blog scienza e musica, ci manda un lungo articolo dedicato all’interessante biografia del grande matematico francese Charles Hermite e ad alcuni dei suoi notevoli contributi alla matematica.
  • Due recensioni dei libri di altramatematica arrivano da Paolo Alessandrini: “Cerco un centro” e “Identità: ascesa e decadenza di un concetto matematico e filosofico“, sul blog Mr. Palomar.
  • Per i beneamati Rudi Matematici, i contributi, raccolti da Alice, arrivano via Piotr, e comprendono: due compleanni (di Weil, che celebra anche l’arte e la filosofia, ma anche lo stupore delle cose fuori dal loro contesto, e di Shannon, che, secondo la Signora non ha avuto molto successo ma a cui è molto affezionata (e io anche, è nato il mio stesso giorno NdR)). Non manca, poi, il problema mensile sui cari vecchi criteri di divisibilità e l’amore del Grande Capo per il criterio di divisibilità per 7. Un Quick&Dirty geometrico, che ha avuto un successone e fatto giocare tutti i lettori e infine il solito post di soluzione, che anche questo mese ha scatenato discussioni (al solito perché, se il problema non è chiaro, le soluzioni possono variare anche di molto…). Il caro Piotr, che ho avuto il piacere di conoscere alla lezione di Douglas Hofstadter al Salone del Libro di Torino (e sostiene che ci abbia presentati Hofstadter in persona), mi chiede inoltre di confessare pubblicamente la sua colpa nella non-uscita del cosiddetto miracolo mensile, cioè RM di maggio. Lo scusiamo, via, c’era il Salone…
  • Popinga, detto anche Marco Fulvio Barozzi, partecipa con Poesia gaussiana (o dell’unicità della fattorizzazione). Si tratta di una composizione sperimentale in cui ogni nuovo verso corrisponde a un numero primo. In teoria è infinita, e consentirebbe di associare dei versi a un qualsiasi numero adeguatamente scomposto in fattori. In realtà, già al verso 29 suscita nello stesso autore il commento “che palle”, ergo, penso – dice lui – sia perfettamente in tema.
  • Per DropSea, Gianluigi Filippelli manda Il giardino degli spettraedri, su una relativamente nuova classe di figure geometriche, gli spettraedri appunto, che in questo post prova a definire e a raccontare, seguito da Assassinio nel labirinto: recensione del romanzo giallo del chimico Alfred Walter Stewart con all’interno la soluzione di Bertrand Russell del labirinto di Hampton Court.
  • Per finire, Jean Morales, di Torino, devoto curatore di un blog di giochi matematici originali, invia all’ultimo un post: quattro risposte per una domanda formano un quesito a scelta multipla con incastonato un paradosso. Nel post suggerisce di modificare i termini della domanda in modo di dotarla di una risposta.

Sembra che siamo giunti alla fine, se non ho dimenticato nessuno perso nel marasma della mia casella email. Mi scuso per essere stato stringato nelle descrizioni (a volte pedissequamente copiaincollate dalle vostre missive). Ho deliberatamente tralasciato tutte le vostre scuse per ritardi e contributi scarsi: come vedete, il Carnevale non è scarno. Grazie a tutti!

Un saluto a tutti coloro che ho incontrato e non incontrato al Salone del Libro. (Mi sono guadagnato l’autografo di Douglas Hofstadter e quello di Piergiorgio Odifreddi…)

Appuntamento tra trentun giorni per il prossimo Carnevale, che sarà ospitato da Mau sulle sue Notiziole con tema (bellissimo, attuale e importantissimo) la matematica che vi piacerebbe vedere insegnata.

Advertisements

I neuroni secondo i matematici

Questo mese mi concedo generosamente ai pochi che mi leggono (i cosiddetti “venticinque lettori”, ma è brutto da dire, ché Manzoni, quando parlava dei Venticinque intendeva Milioni e faceva il Brillante, mentre io non voglio) e secerno un post che rispetta il vero tema del Carnevale della Matematica prossimo venturo, cioè la matematica e gli organismi viventi. Caso vuole che io abbia scritto la mia tesi triennale su una cosa chiamata reti neurali artificiali, che se la riguardo adesso, era sullo 0.01% di quello che si può dire sulle suddette, e anche la parte meno interessante, ma è stato bello e istruttivo farla, comunque.

Insomma, volevo farvi vedere il modello matematico di un neurone, il più semplice di tutti nonché il primo (che io sappia), che è stato inventato da McCulloch e Pitts as early as 1943. Un neurone è fatto così:

Neurone al microscopio

Neurone al microscopio elettronico. (microscopy.ucsd.edu)

i rametti tutto intorno, che si chiamano dendriti, raccolgono i segnali elettrici da altri neuroni. Lo stato del neurone è rappresentato dalla differenza di potenziale che c’è attraverso la sua membrana cellulare, cioè tra il corpo della cellula (soma) e l’esterno. Quando questa raggiunge una certa soglia, il neurone scarica di botto una corrente attraverso il dendrite, cioè quella coda più grossa che va verso il basso nell’immagine.

Il matematico descrive il neurone così:

percettrone

tutti i potenziali in ingresso \mathbf{x} vengono pesati su dei parametri \mathbf{w} e sommati tra loro e ad un valore di partenza \theta. Il neurone scarica al raggiungimento di una certa soglia: quindi in modo non lineare. La funzione \phi tiene conto di questo, basta scegliere una funzione a gradino o una sigmoide. In uscita dal neurone c’è un segnale elettrico

\phi(\mathbf{x}\cdot\mathbf{w}+\theta)

A cosa serve tutto questo? A due cose bellissime.

La prima è farsi un’idea di come funziona il cervello. Questo modello non basta assolutamente a descrivere cosa succede lì dentro, ma non è così lontano dalla realtà (in effetti, è direttamente ispirato alla realtà…). Suggerisce perlomeno che l’informazione deve essere principalmente nascosta in due posti: la struttura della rete (a quali altri è collegato ogni neurone?) e i valori di tutti i pesi delle connessioni tra un neurone e l’altro e delle costanti iniziali \theta di ogni neurone. È stato abbastanza per produrre simulazioni interessantissime, le più semplici delle quali si possono fare su un PC in poche ore, ma che arrivano a richiedere supercomputer ad hoc.

La seconda è costruire piccoli cervellini per pensare al posto nostro. Le reti neurali artificiali sono uno strumento di calcolo. Per esempio, reti già semplicissime (meno di dieci neuroni) riescono a fare il fit di dati sperimentali, cioè a intuire come dovrebbe essere fituna funzione dati alcuni punti estratti da essa. È un comportamento “intelligente”, perché non c’è una vera risposta (o meglio, ce ne sono infinite), dal punto di vista matematico, a questo problema, ma l’occhio umano intuisce quali sono risultati migliori e quali peggiori. Nella figura a fianco, presa dalla mia vecchia tesi, ci sono dati del satellite COBE sullo spettro di corpo nero, con le loro incertezze. La curva è il comportamento “imparato” dalla rete neurale a cui era stato fatto osservare un insieme (diverso) di dati dello stesso satellite, in modo da aggiustare i pesi fino a che non ri ottenevano risultati accettabili. C’azzecca, eh.

Nel campo delle reti neurali, fisici e matematici lavorano da anni, per due ragioni: il fatto che servano a fare conti come questi, che è stato sfruttato per esempio per produrre una libreria di distribuzioni partoniche (sono funzioni che descrivono la densità dei quark e gluoni dentro ad un adrone) a partire dai dati di LHC; e poi perché sono un soggetto di studio interessante per la matematica non lineare e per la fisica dei sistemi complessi e la meccanica statistica.

Edit (8 nov): Anche se ho specificato che questo modello è molto basilare e ormai vecchio, mi sento in dovere, anche in seguito a una conversazione con un amico, che oggi si ritiene insufficiente per il primo scopo, cioè la simulazione del cervello. Le simulazioni che si fanno ora fanno uso di modelli realistici, che possono scendere nei dettagli fino allo scambio di cariche nei singoli canali ionici. Chiaramente la potenza computazionale richiesta è decisamente maggiore: si può simulare un neurone, ma fare una rete di migliaia di cellule è dura. Per questo sono in via di costruzione supercomputer dedicati allo Human Brain Project, un progetto che comprende la simulazione, l’analisi teorica, l’applicazione robotica, lo studio fisiologico del cervello sia umano che dei topi, e chi più ne ha più ne metta. Comprenderà anche un team dedicato allo studio di dispositivi di calcolo che emulano il neurone già a livello hardware (neuromorphic computing). È un progetto enorme finanziato dall’UE e dalle decine di università partecipanti per un totale di 1.2 miliardi di euro (!) in dieci anni. Ambizioso. Ma non mi viene in mente niente di più importante, interessante e meritevole del cervello umano.

Come funziona Google PageRank?

Google Search, il motore di ricerca più famoso del mondo, è una macchina che funziona incredibilmente bene. Un paio di parole chiave accuratamente scelte ed ecco che compaiono migliaia di risultati. Sì, migliaia: in questo 2013 il web è talmente esteso che la maggior parte delle ricerche che possiamo fare quotidianamente riguardano argomenti già trattati ampiamente un po’ dappertutto. Eppure, se ci fate caso, in mezzo a migliaia di risultati, raramente è necessario spingersi molto avanti, anzi in genere non bisogna neppure disturbarsi a leggere la seconda pagina.

Vi siete mai chiesti come fa Google a dare la precedenza a Wikipedia o a un sito autorevole rispetto a qualche sconosciuto blog di autore ignoto? E soprattutto, a sapere già cosa avete in mente, come a volte dà l’impressione (con occasionali errori grossolani)? Gli stessi fondatori di Google, Brin e Page, presentando l’algoritmo che fu una soluzione di questo dilemma, scrivevano nel 1999:

L’importanza di una pagina Web è una questione in sé soggettiva, che dipende dagli interessi, dalle conoscenze e dalle attitudini dei lettori. Ma c’è comunque molto da dire oggettivamente sull’importanza relativa delle pagine Web. [PageRank è] un metodo per valutare le pagine Web oggettivamente e automaticamente, misurando di fatto l’interesse e l’attenzione umani a queste rivolti.

Il Web è una grande rete (web vuol dire “ragnatela”, come saprete) i cui nodi sono pagine e i cui collegamenti sono i link (da non confondere con Internet, che è una rete di computer). In particolare è una rete direzionale perché se la pagina A ha un link verso B, non necessariamente è vero il contrario. L’algoritmo assegna a ogni pagina un rango (rank appunto), una sorta di misura del suo prestigio, o della sua autorevolezza. Il punto è come determinarla. Un punto di partenza ragionevole e intuitivo è il seguente: una pagina è tanto più autorevole quanto più autorevoli sono le pagine che parlano di essa. In altre parole, se Wikipedia, che è un sito importante e famoso, mette un link al mio piccolo blog, il prestigio del mio sito aumenta. Mettendo giù una formuletta, mi aspetto una dipendenza del mio ranking dagli altri come segue:

r_i =\sum_{j:j\to i} \frac{r_j}{k_j}

dove la sommatoria è su tutte le pagine j che hanno un link che punta verso la mia, i. Il valore k al denominatore è il numero di link che escono dalla pagina j: se la stessa pagina di Wikipedia cita centinaia di altre fonti, io sono solo uno in mezzo a mille altri e questa influenza positiva ragionevolmente diminuisce.

Questa equazione è autoconsistente, nel senso che la sua soluzione dipende dai rank di tutte le altre pagine, che è determinato dalla stessa equazione. Questo gatto che si morde la coda ha comunque una soluzione, che si può, tra l’altro, ottenere numericamente scegliendo degli r di partenza casualmente e applicando più e più volte la formula fino a raggiungere un risultato stabile con la precisione desiderata. Nonostante questo, ha dei difetti: innanzitutto, ha sempre una soluzione in cui tutti i rank sono zero. Anche la soluzione non banale ha un problema di fronte a un loop come questo:Loop1

i tre nodi “acquisiscono prestigio” dall’esterno senza mai distribuirne. A ogni iterazione dell’algoritmo, il loro prestigio aumenta fino a divergere. Per un loop isolato così

Loop2qualunque numero, purché uguale sulle tre pagine, è soluzione. Inoltre, ogni nuova pagina, che non ha ancora nessun link in ingresso, otterrà sempre un punteggio nullo che la destina a restare per sempre inosservata.

Il problema è risolto aggiungendo al ranking un piccolo termine “in regalo” alle pagine per il solo fatto di esistere, la cui importanza è determinata da un parametro p (che Google ha fissato a 0.15):

r_i = \frac{p}{N} + (1-p)\sum_{j:j\to i}\frac{r_j}{k_j}

La stessa espressione può essere interpretata (e anzi di solito è spiegata in questi termini) come la probabilità di trovare sulla pagina un “surfer” che naviga casualmente su internet, prendendo link a caso e, con probabilità p, spostandosi su una pagina qualunque anziché cliccare un link.

Oggi, l’algoritmo di Google Search tiene in conto un grande numero di fattori, compresi la lingua, l’area geografica di origine di un sito, la sua data di aggiornamento. Ma il PageRank è ancora il modo usato per determinare l’autorevolezza di un sito, ed è fondamentalmente una misura del suo ruolo all’interno di una rete complessa.

Oltre a funzionare palesemente bene, ha un vantaggio indispensabile per un motore di ricerca importante come Google: è praticamente impossibile influenzarlo o manometterlo, perché non c’è altro modo di aumentare il proprio ranking che convincere un’altra pagina autorevole, o molte piccole, a citarti. In una parola, è profondamente democratico.

PageRank list

I 15 maggiori PageRank del Web a luglio 1996. Il Web delle origini era abbastanza autoreferenziale. A parte la pagina del CERN, che fu la prima. Dall’articolo citato.

ResearchBlogging.orgL Page, S Brin, R Motwani, & T Winograd (1999). The PageRank citation ranking: bringing order to the web. Technical Report. Stanford InfoLab.

Matematica dis…umana

Che cosa significa essere un genio in matematica? Una volta una mia amica (fisica) mi raccontò di aver avuto questo dialogo con suo fratello (alunno delle elementari):

– Ma tu quanto sei brava in matematica?
– Molto brava.
– Allora dimmi (prende la calcolatrice) quanto fa 30.302.146 per 34.534?

È difficile per chi non la studia direttamente rendersi conto di che cosa vuol dire fare matematica. Certamente, però, non ci si limita a una serie di operazioni meccaniche sempre più complicate: più si sale con il livello e più aumentano, invece, la sottigliezza dei teoremi, l’eleganza delle dimostrazioni, la potenza dei concetti.

Mentre un’operazione come una moltiplicazione a dieci o anche cento cifre è difficilissima per un essere umano, fare il conto è banale per un computer, anzi, è tra le operazioni che considera più elementari. D’altra parte, le situazioni in cui è richiesta astrazione o intuizione o immaginazione offrono a una macchina una sfida tale che è difficile perfino formulare il problema in modo ad essa comprensibile. Questo non afferma la stupidità delle macchine: semmai, è una misura della sofisticazione meravigliosa del cervello umano.

Si può addestrare un computer a lavorare ad alto livello, cioè a fare matematica con dei concetti astratti? Un paio di mesi fa, Timothy Gowers, un celebre matematico britannico, ha chiesto ai lettori del suo blog di valutare in chiarezza e stile dimostrazioni scritte in tre modi diversi, come nell’esempio seguente:

Problem 3. Let X be a complete metric space and let A be a closed subset of X. Then A is complete.
3(a) Consider an arbitrary Cauchy sequence (x_n)_{\{n\in\mathbb{N}\}} in A. As X is complete, (x_n) has a limit in X. Suppose \lim_{n\to\infty}x_n=x. Because A is closed, x belongs to A. We’ve proved that every Cauchy sequence in A has a limit point in A. So A is complete.
3(b) Let (a_n) be a Cauchy sequence in A. Then, since X is complete, we have that (a_n) converges. That is, there exists a such that a_n\to a. Since A is closed in X, (a_n) is a sequence in A and a_n\to a, we have that a\in A. Thus (a_n) converges in A and we are done.
3(c) Let (a_n) be a Cauchy sequence in A. We want to show that (a_n) tends to a limit in A. Since A is a subset of X, (a_n) is a Cauchy sequence in X. Since X is complete, a_n \to a, for some a \in X. Since A is a closed subset of X, it must contain all its limit points, so a \in A. So a_n \to a in A. So A is complete.

Notate innanzitutto che tutte le dimostrazioni sono 1) grammaticalmente corrette 2) matematicamente corrette.

Soltanto due settimane dopo, Gowers ha rivelato che per ogni tripletta di dimostrazioni una era stata scritta da uno studente, una da un dottorando, e una da un programma. E ha chiesto ai suoi lettori di identificare quale delle tre fosse prodotta da una “mente elettronica”. Per quanto circa il 50% dei lettori abbia correttamente identificato il computer, l’altra metà è stata ingannata, con significativa presenza di persone che si dicevano “certe” che la risposta giusta fosse un’altra. Nel suo ultimo post, Gowers rivela nel dettaglio i metodi che ha usato insieme al suo collega Mohan Ganesalingam. È interessante notare che quest’ultimo è in realtà un linguista computazionale e informatico e non un matematico. Di fatto, tutto il loro lavoro si distingue da tentativi precedenti di automated theorem proving per il fatto che si basa unicamente sullo studio di come un matematico ragiona nella sua lingua e non su come dovrebbe ragionare. Invece di ridurre la nostra matematica umana al livello della pura logica, alza il ragionamento logico alle complessità del linguaggio umano facendo lavorare il computer direttamente sull’inglese. Con il vantaggio, tra l’altro, di formulare domande e ottenere risposte nella nostra lingua e non in geroglifici.

Trovo questo risultato bellissimo. Non tanto per la sua utilità per aiutarci a dimostrare teoremi avanzati. Lo vedo piuttosto come un tentativo di far parlare e ragionare un computer come un uomo, che è lo scopo ultimo di quella branca della scienza che si chiama intelligenza artificiale. D’altra parte questo sarebbe un problema molto difficile da aggredire in senso generale: Gowers e Ganesalingam sono partiti dalla matematica perché questo è il campo dove c’è il collegamento più diretto tra come è fatta la lingua e come lavora la logica; come sanno tutti quelli che studiano scienza su libri in inglese, il linguaggio tecnico è facile da capire anche in una lingua straniera.

Mi piace pensare che la matematica sarà il primo campo in cui un uomo e un computer potranno conversare alla pari. Ma anche se questo non succedesse mai, un esperimento del genere ci costringe a pensare a come funziona il nostro “genio”.

PS. Se vi è rimasto il dubbio su quale sia la dimostrazione scritta dal programma, leggetevi il post originale. Anche su questo blog c’è un commento ai risultati di Gowers.