I neuroni secondo i matematici

Questo mese mi concedo generosamente ai pochi che mi leggono (i cosiddetti “venticinque lettori”, ma è brutto da dire, ché Manzoni, quando parlava dei Venticinque intendeva Milioni e faceva il Brillante, mentre io non voglio) e secerno un post che rispetta il vero tema del Carnevale della Matematica prossimo venturo, cioè la matematica e gli organismi viventi. Caso vuole che io abbia scritto la mia tesi triennale su una cosa chiamata reti neurali artificiali, che se la riguardo adesso, era sullo 0.01% di quello che si può dire sulle suddette, e anche la parte meno interessante, ma è stato bello e istruttivo farla, comunque.

Insomma, volevo farvi vedere il modello matematico di un neurone, il più semplice di tutti nonché il primo (che io sappia), che è stato inventato da McCulloch e Pitts as early as 1943. Un neurone è fatto così:

Neurone al microscopio

Neurone al microscopio elettronico. (microscopy.ucsd.edu)

i rametti tutto intorno, che si chiamano dendriti, raccolgono i segnali elettrici da altri neuroni. Lo stato del neurone è rappresentato dalla differenza di potenziale che c’è attraverso la sua membrana cellulare, cioè tra il corpo della cellula (soma) e l’esterno. Quando questa raggiunge una certa soglia, il neurone scarica di botto una corrente attraverso il dendrite, cioè quella coda più grossa che va verso il basso nell’immagine.

Il matematico descrive il neurone così:

percettrone

tutti i potenziali in ingresso \mathbf{x} vengono pesati su dei parametri \mathbf{w} e sommati tra loro e ad un valore di partenza \theta. Il neurone scarica al raggiungimento di una certa soglia: quindi in modo non lineare. La funzione \phi tiene conto di questo, basta scegliere una funzione a gradino o una sigmoide. In uscita dal neurone c’è un segnale elettrico

\phi(\mathbf{x}\cdot\mathbf{w}+\theta)

A cosa serve tutto questo? A due cose bellissime.

La prima è farsi un’idea di come funziona il cervello. Questo modello non basta assolutamente a descrivere cosa succede lì dentro, ma non è così lontano dalla realtà (in effetti, è direttamente ispirato alla realtà…). Suggerisce perlomeno che l’informazione deve essere principalmente nascosta in due posti: la struttura della rete (a quali altri è collegato ogni neurone?) e i valori di tutti i pesi delle connessioni tra un neurone e l’altro e delle costanti iniziali \theta di ogni neurone. È stato abbastanza per produrre simulazioni interessantissime, le più semplici delle quali si possono fare su un PC in poche ore, ma che arrivano a richiedere supercomputer ad hoc.

La seconda è costruire piccoli cervellini per pensare al posto nostro. Le reti neurali artificiali sono uno strumento di calcolo. Per esempio, reti già semplicissime (meno di dieci neuroni) riescono a fare il fit di dati sperimentali, cioè a intuire come dovrebbe essere fituna funzione dati alcuni punti estratti da essa. È un comportamento “intelligente”, perché non c’è una vera risposta (o meglio, ce ne sono infinite), dal punto di vista matematico, a questo problema, ma l’occhio umano intuisce quali sono risultati migliori e quali peggiori. Nella figura a fianco, presa dalla mia vecchia tesi, ci sono dati del satellite COBE sullo spettro di corpo nero, con le loro incertezze. La curva è il comportamento “imparato” dalla rete neurale a cui era stato fatto osservare un insieme (diverso) di dati dello stesso satellite, in modo da aggiustare i pesi fino a che non ri ottenevano risultati accettabili. C’azzecca, eh.

Nel campo delle reti neurali, fisici e matematici lavorano da anni, per due ragioni: il fatto che servano a fare conti come questi, che è stato sfruttato per esempio per produrre una libreria di distribuzioni partoniche (sono funzioni che descrivono la densità dei quark e gluoni dentro ad un adrone) a partire dai dati di LHC; e poi perché sono un soggetto di studio interessante per la matematica non lineare e per la fisica dei sistemi complessi e la meccanica statistica.

Edit (8 nov): Anche se ho specificato che questo modello è molto basilare e ormai vecchio, mi sento in dovere, anche in seguito a una conversazione con un amico, che oggi si ritiene insufficiente per il primo scopo, cioè la simulazione del cervello. Le simulazioni che si fanno ora fanno uso di modelli realistici, che possono scendere nei dettagli fino allo scambio di cariche nei singoli canali ionici. Chiaramente la potenza computazionale richiesta è decisamente maggiore: si può simulare un neurone, ma fare una rete di migliaia di cellule è dura. Per questo sono in via di costruzione supercomputer dedicati allo Human Brain Project, un progetto che comprende la simulazione, l’analisi teorica, l’applicazione robotica, lo studio fisiologico del cervello sia umano che dei topi, e chi più ne ha più ne metta. Comprenderà anche un team dedicato allo studio di dispositivi di calcolo che emulano il neurone già a livello hardware (neuromorphic computing). È un progetto enorme finanziato dall’UE e dalle decine di università partecipanti per un totale di 1.2 miliardi di euro (!) in dieci anni. Ambizioso. Ma non mi viene in mente niente di più importante, interessante e meritevole del cervello umano.

Advertisements

3 thoughts on “I neuroni secondo i matematici

    • Guarda, sono così gentile che pubblico addirittura il tuo commento. Comunque ho fatto questa prova per imparare. Non dico che non mi interessa se non mi leggono, ma sono disposto a continuare e a farne un esercizio.

      • inizia a parlare di mignotte e coca come fanno i blogger seri con tante visualizzazioni

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out / Change )

Twitter picture

You are commenting using your Twitter account. Log Out / Change )

Facebook photo

You are commenting using your Facebook account. Log Out / Change )

Google+ photo

You are commenting using your Google+ account. Log Out / Change )

Connecting to %s