Home / Tag Archives: filosofia della scienza

Tag Archives: filosofia della scienza

Le basi matematiche della biologia

Uno dei principali problemi della Biologia è il suo non avere ancora dei fondamenti matematici solidi. Mentre fisici e chimici possono contare su modelli che predicono abbastanza accuratamente i risultati dei vari esperimenti, i biologi si devono accontentare, se va bene, di modelli descrittivi e qualitativi, in cui raramente compaiono equazioni e le cui previsioni sono grossolane.

Ciò non dà solo dei problemi prettamente scientifici. E’ infatti molto difficile smentire chi millanta cure miracolose o teorie esotiche, in quanto non esiste dimostrazione matematica che provi ad absurdum la falsità di quanto venga sostenuto. Ed è ancora più difficile convincere il “pubblico” ad accettare le proprie ricerche scientifiche come certe, o quasi certe, come ad esempio per la teoria dell’evoluzione di Darwin, che viene ancora rigettata da gran parte degli integralisti religiosi, che preferiscono il disegno intelligente [1].

Personalmente ritengo che sperare di convincere gli scettici ad accettare una teoria dopo una dimostrazione certa e inconfutabile sia un pia illusione. Basti osservare le posizioni di una gran parte della popolazione riguardo agli OGM. Oppure i continui attacchi da parte di estremisti islamici alla teoria eliocentrica o di integralisti cristiani che continuano a negare l’evidenza che l’età del nostro pianeta sia di 4.5 miliardi di anni sostenendo che sia di soli 6000 (eppure le misure di datazione che sfruttano la radioattività naturale sono certe e precise).
E questa è la brutta notizia.

La bella notizia è che negli ultimi 60 anni si è sviluppata un’interessante branca della matematica (o della biologia?): la biologia matematica.
La forza delle scienze fisiche è quella di schematizzare la realtà tramite modelli ideali, più semplici da far digerire ai calcolatori, che, grazie a degli algoritmi, li fanno evolvere nel tempo e arrivano a delle previsioni teoriche. I modelli poi vengono ricondotti il più vicino possibile a quelli “reali” aggiungendo via via più variabili; in questo modo si ottengono risultati di notevole precisione.
Ebbene, questa disciplina cerca di schematizzare i sistemi biologici (dalla cellula, all’organismo, alle interazioni tra vari organismi) usando la matematica dei sistemi dinamici: un tipico esempio è il modello di Lotka-Volterra, sistema di due equazioni differenziali del primo ordine non lineari che descrive abbastanza bene l’andamento delle popolazioni di prede e predatori.

Un grande contributo alla biologia matematica è stato dato dal britannico Alan Turing (1912-1954), noto soprattutto per i suoi lavori sulla computazione e sulla crittografia [2]. Però, mentre di calcolatore universale ne avevano già parlato Leibnitz e Babbage(*) e di crittografia si occupavano già diversi matematici, per quanto riguarda un approccio matematico nel continuum(º) alle scienze della vita, Turing è stato un pioniere assoluto; questo senza nulla togliere agli straordinari contributi che ha dato negli altri campi della matematica.

Alan Turing

Nel 1952, due anni prima del suo suicidio, scrisse un rivoluzionario articolo sulla rivista della London Royal Society [3] che diede inizio allo studio matematico della morfogenesi, ovvero la branca delle biologia che studia come si sviluppano le forme degli organismi.
In questo lavoro Turing usa la matematica per dimostrare che da un sistema di due reagenti chimici (sistema di reazione-diffusione di equazioni differenziali non lineari) in equilibrio omogeneo, si può ottenere, sotto determinate condizioni, un’instabilità che porta ad un nuovo equilibrio disomogeneo, ovvero alla formazione di un certo pattern(∂).
Questa geniale intuizione dà una spiegazione più che convincente sul come abbiano avuto origine i manti striati e a chiazze degli animali [4]. In più, lo studio sui networks(•) di questa Instabilità di Turing sta inziando a dare spiegazione di alcuni pattern che si osservano in neuroscienze e in altri sistemi discreti (º).

Oltre a questo approccio dinamico, che studia l’evoluzione temporale di un sistema, negli ultimi anni si sta rivalutando un approccio informazionale alla biologia [5], già anticipato dal matematico ungherese Von Neumann (1903-1957) e dal fisico statunitense Richard Feynmann (1918-1988). Ciò consiste nel paragonare la vita ad un software, cioè ad un sofisticato algoritmo che si è auto organizzato ed evoluto nel tempo grazie ad un continuo scambio di informazione tra le sue componenti.

Dobbiamo essere pronti ad affrontare, senza pregiudizi, le sfide etiche e filosofiche che deriveranno dalle prossime scoperte. Grazie alle matematica, stiamo facendo enormi progressi nello studio del cervello, stiamo comprendendo più a fondo le interazioni tra molecole complesse, i meccanismi di replicazione delle cellule e tanto altro.
Difficilmente riusciremo a interpretare e scrivere sotto forma di equazioni tutto ciò che accade nel nostro cervello; così come sarà dura avere una teoria matematica consistente che spieghi l’evoluzione delle specie.
In ogni caso la matematizzazione della biologia sta già incassando dei bei risultati; e siamo solo all’inizio!

Note:

(*) In realtà il filosofo tedesco Gottfried Leibnitz (1646-1716) e lo scienziato inglese Charles Babbage (1791-1871) non sono stati i primi a parlare di calcolatore, si pensi ai lavori di Pascal o addirituttra a quelli dei matematici alessandrini. Però il concetto di calcolatore universale del filosofo tedesco è quello più vicino alla macchina di Turing teorizzata negli anni ’30 dal matematico britannico, mentre Babbage è stato il primo a costruire una macchina calcolatrice (a vapore) che facesse qualcosa di più che sommare due o tre numeri.
(º) Un esempio di insieme continuo è la retta reale R, dove tra due valori μ e μ` (vicini quanto si vuole) ce ne sono infiniti. Un esempio di insieme discreto è la serie dei numeri naturali N, dove i valori sono definiti e non c’è modo di passare da uno all’altro senza “fare un salto”.
(∂) Il vocabolo pattern è lasciato in lingua originale in quanto di difficile traduzione in questo ambito, infatti in gergo tecnico si usa sempre il termine inglese. In questo caso il termine è inteso come un “disegno”: ad esempio il manto chiazzato del leopardo è un pattern.
(•) Un network o grafo è una struttura matematica discreta.

Per approfondire:

[1] Nicola Nosengo, Daniela Cipolloni, Compagno Darwin, l’evoluzione è di destra o di sinistra?;
[2] Andrew Hodges, Alan Turing. Storia di un Enigma;
[3] Alan Turing, The Chemical Basis of Morphogenesis;
[4] James Murray, How the leopard gets its spots;
[5] Gregory Chaitin, Darwin alla prova. L’evoluzione vista da un matematico.

Riccardo Muolo

”Che cos’è la logica?” di Hilary Putnam.

La copertina.

Quando esce un nuovo libro di Hilary Putnam è sempre un evento: uno di quei pochi filosofi che sanno toccare qualsiasi tema con un certo rigore e un’invidiabile umanità, come se fosse un caro amico con cui conversare. È successo con Fatto-valore. Fine di una dicotomia e altri saggi e si ripete con questo Che cos’è la logica?, a cura del Prof. Mario De Caro dell’Università degli Studi di Roma Tre. Una raccolta di riflessioni sulla logica, campo in cui diede numerosi contributi (in aggiunta ad altri come la filosofia del linguaggio, filosofia della matematica, ontologia, epistemologia, ecc.).

In Che cos’è la logica? Putnam tenta di delineare alcune risposte ad alcune fondamentali domande oggetto della filosofia della logica, quell’area della filosofia che si interessa di definire lo statuto della logica in sé e evidenziare le conseguenze filosofiche di certe assunzioni logiche. Ad esempio, come può la logica contribuire alla nostra visione del mondo e alla sua costruzione? Oppure, come possono gli enunciati riferisi a qualcosa di extra-linguistico nel mondo? La logica ci può dire tutto oppure hai dei limiti rispetto a ciò che possiamo conoscere? Perché è fondamentale rispetto alle nostre teorie? Ma anche casi che possiamo incontrare comunemente nella vita di tutti i giorni: siamo davvero certi che i nostri argomenti siano davvero corretti e quando? O chi garantisce che il metodo usato in matematica e nelle scienze naturali sia giustificato?

Questa raccolta di saggi è in effetti un grande volo d’uccello sui problemi che i logici e i filosofi incontrano nel proprio percorso. Un buon risultato che mostra come la logica non sia semplicemente un esercizio formale, quanto il discrimine fra ragionamenti formulati correttamente e no. Sul che cosa conistono le nostre inferenze e il nostro linguaggio, in sostanza sul cosa davvero abbia senso e cosa no. Un’assunzione o un teorema sono in grado di cambiare radicalmente le fondamenta delle nostre ipotesi, o come affermava W.V.O. Quine il lavoro del logico può dare un aiuto decisivo rifinendo le nostre teorie scientifiche. Quindi ciò Putnam intende mettere in rilievo in questo volume è che la scienza logica (riprendendo tale denominazione dal buon Hegel) è qualcosa che impatta inevitabilmente con tutto ciò che riguarda il modo in cui affrontiamo il mondo e lo comunichiamo agli altri (o come le altre persone lo comunichino a noi).

Qui si ripete: il grande pregio di Putnam, che ogni filosofo dovrebbe avere, è l’affrontare temi così complessi in maniera colloquiale, amichevole e al tempo stesso con eccezionale rigore accademico.

 

Hilary Putnam, Che cos’è la logica?, a cura di M. De Caro, Mondadori Università, 2014, pp.304, €18.

Neurogenesi della maleducazione

Vi racconto un episodio capitatomi di recente. Mi trovavo ad un acquario con un bambino di 4 anni (e i relativi genitori). È normale che un bambino alla vista di tanti pesci si entusiasmi e inizi a correre qua e là urlando . Come è ovvio che dopo un po’ alle persone presenti in sala, alquanto infastidite, salga la tentazione di allontanarsi. Non potendo far altro che assistere alla scena impotente, dato che per ogni genitore un estraneo (o non) che osa fare una critica al proprio figlio compie un atto di lesa maestà, mi metto ad osservare. Dopo che, con le sue urla, il bambino era riuscito a svuotare la sala, ecco che entra un’altra bambina (a onor del vero un po’ più grande) molto silenziosa e discreta. Alla vista di costei, mi sono chiesto molto ingenuamente: perché alcuni bambini sono maleducati? C’è una componente di innatismo o è tutta emulazione? La risposta era di fronte a me. Mentre la mamma della bambina la teneva per mano parlandole sotto voce, i genitori del bambino passavano di vasca in vasca urlandogli dalla parte opposta della sala “Guarda questo pesce! Guarda il granchio!” etc. Provo invano a far notare la cosa, venendo fulminato da delle occhiate piene di indignazione. Allora, galileianamente, non rassegnandomi ad essere un osservatore esterno che non può influire sulla misura, decido di fare un ultimo disperato tentativo: una povera anguilla se ne stava ben rintanata nella sua tana, viste le urla del bambino (e non solo) di fronte alla sua vasca. Allora, approfittando di un momento di quiete, in cui i genitori si erano distratti (mai abbassare la guardia in presenza di estranei!), prendo da parte il bambino avvicinandomi alla vasca dell’anguilla. Inizio a parlargli sottovoce, spiegandogli che il pesce sente i rumori e vede le ombre, quindi se si urla e ci si muove si spaventa e non esce. Capisce, si calma e nel giro di un minuto assistiamo in religioso silenzio all’apparizione di questo timido abitante delle acque dolci. Addirittura, il bambino inizia sottovoce a farmi delle domande sul pesce. Dopo questa breve parentesi di quiete viene risucchiato nel vortice dei “guarda a mamma che bello quel pesce!” per ritornare iperattivo come prima.

Quindi, i bambini nascono intrinsecamente maleducati? No, imparano quasi tutto dai genitori. Ma questo si sapeva. In realtà era solo una scusa per parlarvi della notevole plasticità neurale dei “cuccioli umani” (per ulteriori approfondimenti sulla maleducazione si veda [1]). Psicologi e soprattutto etologi hanno a lungo dibattuto (e dibattono tutt’ora) sul come i vari animali apprendano i comportamenti. Principalmente ci sono due scuole di pensiero: i sostenitori dell’innatismo, ovvero la teoria secondo la quale molti comportamenti sono presenti dalla nascita perché, essendo evolutivamente vantaggiosi, fanno parte dei caratteri selezionati della data specie, contro il filone degli studiosi che ritengono la mente (in particolare qui si parla di mente umana) una “tabula rasa”, ovvero l’individuo alla nascita è privo di qualsiasi conoscenza pratica o teorica sul mondo.

Ma come stanno veramente le cose? Vediamo.

Molte ricerche portate avanti al CIMEC di Trento (e non solo), fatte sia su dei pulcini che su dei neonati, mostrano come ci sia una componente innata di conoscenza. Ad esempio, sia i neonati che i pulcini sono in grado, appena nati e senza aver avuto alcun contatto col mondo esterno, di riconoscere oggetti animati da oggetti inanimati e di avere una qualche concezione di causalità (si veda [2], dove sono illustrati numerosi esperimenti). Ovviamente, in svariati milioni di anni di evoluzione, sono stati trasmessi più facilmente i geni del pulcino che ha riconosciuto come mamma un oggetto animato (tipo la vera mamma) anziché un sasso; come è stato sicuramente più facile che raggiungesse l’età adulta, e dunque trasmettesse i propri geni alla prole, un cucciolo di scimmia in grado di riconoscere un potenziale predatore che gli si avvicinava. Sembra che vincano gli “innatisti”. Invece no. Altri studi compiuti alla SISSA di Trieste [3] mostrano come nell’ippocampo1 si trovino dei neuroni disposti “a griglia” (grid neurons) che funzionano come un GPS, ovvero aiutano l’orientamento spaziale dell’individuo. Il modello di Alessandro Treves e colleghi propone “un’auto- organizzazione” di questi neuroni in base allo spazio; ovvero alla nascita non sono organizzati ma si dispongono ordinatamente durante la crescita. Vivendo noi in uno spazio euclideo2, il nostro “GPS” si organizza per lavorare efficientemente in presenza di tale geometria, ciò fa sì che i neuroni si dispongano secondo un ben preciso pattern [4]. Questo è stato visto su topi ed esseri umani. Esperimenti molto promettenti mirano ad osservare una differente disposizione dei neuroni a griglia in topi vissuti in ambienti non euclidei3 tipo una sfera. Questi studi non sono stati fatti per dar credito alla teoria “innatista” o all’altra, sono solo esempi per mostrare come ci sia del buono in entrambe. Come dicevano i latini, “in media virtus stat”.

In molte specie prevale la componente innata di comportamenti, ovvero i cuccioli sono già in grado di compiere molte azioni (tipo camminare) e sono autosufficienti fin dalla nascita. Queste specie sono quelle in cui lo sviluppo cognitivo è minore, tipo insetti, rettili o pesci. La loro plasticità neurale è quasi nulla, infatti non sono capaci di apprendere particolari comportamenti. Invece già dagli uccelli, dove i genitori si prendono cura della prole, si vede che la componente “appresa” dei comportamenti inizia a farsi importante (ad esempio quando i cuccioli imparano a volare guardando i genitori). Questa componente si fa ancora più marcata nei mammiferi, dove i piccoli trascorrono diverso tempo con i genitori prima di essere indipendenti.

Ciò coincide con una maggiore plasticità neurale al momento della nascita e una corteccia cerebrale più spessa (che è la parte del cervello “più evoluta”, in cui si processano le funzioni più avanzate). Vediamo che i piccoli mammiferi imparano molto dai genitori, anche se ovviamente una componente innata rimane sempre. Per questo motivo possono essere addestrati, come del resto, in maniera minore, anche gli uccelli, mentre è più difficile con i rettili o gli insetti.

Ecco, il “cucciolo di uomo” è totalmente immaturo alla nascita. Non sa fare niente, se non per le funzioni fisiologiche involontarie, ed ha costantemente bisogno della mamma. La plasticità neurale dei bambini è molto alta, questo unito ad una corteccia cerebrale spessa e ai neuroni specchio4 permette all’homo sapiens di avere notevoli abilità cognitive, capacità di apprendere, creatività e tutte le altre funzioni che caratterizzano la nostra specie rispetto alle altre (non ci caratterizziamo di certo per il genoma o per la fisiologia del nostro organismo, simile alle altre specie). Questo, ha dei notevoli vantaggi ed è la chiave della nostra intelligenza, ma c’è un però. Se un bambino non viene seguito e stimolato nella fase in cui la sua plasticità neurale è massima, si porta dietro per tutta la vita danni cognitivi irreversibili (esemplare il caso di Victor [5]). Oppure prendiamo un bambino che ha dei cattivi esempi da emulare. Come ha dimostrato Bandura con uno storico esperimento di psicologia [6] i bambini apprendono dagli adulti qualsiasi comportamento, verbale o fisico, che poi ripetono.

Dicendo qualcosa che molto probabilmente sapevate già, ma di cui ora sapete grosso modo anche il perché, la prossima volta che un bambino disturba il vostro quieto vivere con rumori molesti ed urla non prendetevela con lui; ha solo avuto dei pessimi esempi!

Riccardo Muolo

Note

1) area del cervello dove risiedono le funzioni di memoria ed orientamento spaziale

2) in realtà lo spazio non è euclideo ma “localmente euclideo”, cioè approssimale a quest’ultimo se la porzione di spazio è “piccola” (un po’ come il fatto che la Terra, nonostante sia sferica, è localmente approssimabile ad un piano). Questo basta ai neuroni a griglia.

3) per far sì che una geometria non sia euclidea basta che non valga più il V postulato di Euclide (quello delle rette parallele).

4) sono neuroni che emettono un segnale sia quando l’animale compie l’azione che quando la osserva; sono considerati responsabili, tra le altre cose, di emulazione ed empatia (ma sono ancora oggetto di numerosi studi)

Fonti

[1] http://www.lastampa.it/2011/10/29/italia/cronache/i-piu-cafoni-i-bambini-italiani-secondo- gli-albergatori-ue-r5uqAp5AnP5jKQrrUGYbpL/pagina.html

[2] Giorgio Vallordigara, “La mente che scodinzola. Storie di animali e di cervelli”.

[3] http://daily.wired.it/news/scienza/2011/09/29/ippocampo-cervello-mappa-neuronale- 14683.html

[4] http://www.repubblica.it/scienze/2012/03/29/news/ricerca_cervello_science_struttura_semplice_ tre_d-32369852/

[5] http://archiviostorico.corriere.it/1999/settembre/11/VICTOR_ragazzo_che_venne_dal_co_0_99 09118181.shtml

[6] Albert Bandura, Dorothea Ross and Sheila A. Ross, “Transmission of aggression through imitation of aggressive models”

L’insostenibile caoticità del meteo

 

temporale-campo-grano-frumento

 

Anno: 1963. Luogo: uno dei laboratori di calcolo numerico del MIT (Massachusetts Institute of Technology), Boston. Edward Lorentz compie delle simulazioni metereologiche con dei calcolatori. Ogni simulazione viene meticolosamente ripetuta così da esser sicuri che il codice numerico funzioni bene. Ma in un attimo di pigrizia inserisce 0.506 come condizione iniziale invece di 0.506127 che aveva usato nella simulazione precedente (una differenza dello 0.02% circa). Tanto cosa cambierà mai? Tutto. Il nostro “eroe” si accorge ben presto che i risultati della simulazione sono completamente sballati rispetto a quelli della simulazione precedente, che avevano gli stessi input di quella successiva; se non per quello 0.02%. Nasce la Teoria del Caos (*): “Una piccola variazione nelle condizioni iniziali porta a grandi variazioni nel risultato finale”, o, se vogliamo una formulazione più catastrofista “Un battito d’ali di una farfalla a New York può causare un uragano a Tokyo”. 

Facciamo un esempio pratico; intuitivo anche se poco rigoroso. Prendete una palla da tennis (o qualcosa del genere, purché rimbalzi) e mettevi vicino a un tavolo. Lasciate cadere la palla dall’alto a dieci centimetri dal bordo del tavolo; vedete che questa al ritorno ripercorrerà all’incirca la stessa traiettoria, ma in verso opposto. Ripetete l’operazione avvicinandovi sempre più al bordo. Ci sarà una posizione della vostra mano da cui la palla, una volta lasciata cadere, rimbalzerà vicinissima al bordo e tornerà nella vostra mano; vi spostate di un millimetro (o meno, se ci riuscite), lasciate la palla ed essa colpirà lo spigolo del tavolo cadendo rovinosamente a terra per poi arrestarsi lontano da voi. Vedete, con una differenza di qualche millimetro, vi ritrovate la palla in mano o dall’altra parte della stanza (se va bene). 

Vi è mai successo di guardare il meteo al telegiornale (o su internet dato che siete tipi tecnologici e state leggendo questo articolo) e rimandare il vostro week-end romantico al mare perché le previsioni davano brutto tempo, per poi stramaledire tutti i dipendenti dei centri meteo nel raggio di mille chilometri dopo aver appreso che in realtà le giornate sono state soleggiate? Bene, in realtà dovreste stramaledire la vostra scarsa conoscenza riguardo alla teoria fisico- matematica dei sistemi dinamici caotici. 

Un sistema dinamico è un sistema che si evolve nel tempo secondo una legge ben precisa (un’equazione differenziale). Un esempio è un sistema composto da un pianeta e una stella orbitanti intorno al comune centro di massa (il così detto “problema dei due corpi” da cui si ottengono le tre leggi di Keplero) descritto dalla legge di Newton F=ma. Poi le cose si possono complicare a piacere aggiungendo altri pianeti che orbitano intorno alla stella, qualche satellite che orbita intorno ai pianeti, altri corpi più piccoli come asteroidi e comete e, perché no, anche una stella lontana la cui forza gravitazionale non è trascurabile. Bene, la legge che descrive il sistema è sempre F=ma, però rispetto a prima abbiamo delle difficoltà in più: per sapere l’esatta posizione di ogni corpo ad ogni istante dovremmo risolvere tre equazioni scalari per ogni corpo (dato che F=ma è un’equazione vettoriale i cui vettori hanno tre componenti – le tre dimensioni spaziali) tenendo però presente della forza esercitata su di esso da ciascuno degli altri corpi… troppo anche per il più potente dei computer! 

Quindi negli ultimi due secoli matematici e fisici si sono ingegnati per trovare dei metodi che, almeno a grandi linee, permettessero di seguire l’evoluzione nel tempo di sistemi “ad n gradi di libertà” come quello descritto sopra. Questi metodi si sono rivelati efficaci anche in altri ambiti scientifici dove le variabili di cui tener conto sono troppe, come le neuroscienze o l’economia. O la meteorologia, appunto. E la teoria del caos si inserisce proprio in questo contesto. Le cose vanno più o meno così. 

I complicatissimi programmi di simulazione numerica sono fatti in modo da seguire lo stato di un dato sistema nel tempo (in questo caso il meteo, ma può essere qualsiasi cosa) a partire da certe condizioni iniziali. Queste condizioni iniziali sono i dati di pressione, temperatura, umidità, etc, raccolti dalle varie stazioni meteorologiche sparse per i pianeta (atmosfera e oceani compresi). Semplifichiamo: supponiamo di vivere in un mondo a due dimensioni e che quindi ci basterebbe dividere una certa zona (ad esempio due ettari nel comune di Firenze) in tanti quadratini e mettere al centro di ogni quadratino una stazione meteorologica che ci dà in tempo reale i dati che ci servono per fare delle buone previsioni. Abbiamo già due problemi! Come sappiamo ogni misura è soggetta ad errore. Anche lo strumento più preciso e costoso (ad esempio un super-termometro) vi darà una misura “sprecisa”. Se in un dato quadratino il mio termometro misurasse 11.345 gradi Celsius con un incertezza di 0.001 gradi e la temperatura “vera” fosse 11.345002 avrei una piccola variazione che potrebbe far sì che il mio sistema “reale” si comporti in maniera totalmente differente da quella prevista (ecco perché il meteo dava pioggia e invece è stato bel tempo!). L’altro problema, che si riconduce al precedente, è che per quanto possa cercare di fare dei quadrati piccoli, non posso misurare le quantità che mi servono in ogni punto possibile, ma solo al centro di ogni singolo quadratino. Le cose si complicano notevolmente in 3D, in cui c’è bisogno di mettere stazioni non solo sugli stessi due ettari di prima, ma a diverse altezze fino ad includere almeno la troposfera (ma meglio sarebbe anche la stratosfera), oppure in un area marittima dove devo fare le stesse misure anche in acqua perché ovviamente la sua temperatura e le correnti influenzano l’atmosfera, etc, etc. 

Insomma, un “caos” totale, tanto per restare in tema! Quindi i metereologi eseguono diverse simulazioni numeriche variando di poco le condizioni iniziali e poi calcolano la probabilità che si verifichi un determinato scenario piuttosto che un altro. Ecco perché le previsioni del tempo spesso e volentieri non ci azzeccano. E soprattutto alla lunga (la palla da tennis di prima inizia a “deragliare” da un certo punto in poi). Notiamo in fine che la “caoticità” del meteo non è una proprietà intrinseca del sistema stesso, bensì deriva dalla finitezza in termini di precisione delle nostre misure dei parametri in gioco e dalla nostra limitata potenza di calcolo. Idealmente, avendo a disposizione un computer dotato di una potenza di calcolo infinita, degli strumenti di misura infinitamente precisi e un campionamento spazio-temporale uniforme, potemmo prevedere esattamente che tempo farà ovunque e in ogni momento. 

Ma in natura non c’è niente di infinito (**), quindi per ora, e forse per molto altro tempo, dobbiamo accontentarci di queste previsioni del tempo. 

 

(*) a rigore erano già noti dei sistemi caotici, come ad esempio il doppio pendolo o il problema dei tre corpi in meccanica celeste 

(**) l’universo è ciò che si avvicina di più al concetto matematico di infinito; peccato però che debba essere finito o spazialmente o temporalmente così da spiegare il Paradosso di Olbers, ovvero se l’universo fosse infinito il cielo non dovrebbe essere buio di notte 

Per approfondire: Per una spassosa e intelligente spiegazione sul funzionamento delle simulazioni numeriche: “Capra e calcoli. L’eterna lotta tra gli algoritmi e il caos” di M. Malvaldi e D. Leporini 

Per un saggio divulgativo completo e fruibile da tutti su cosa sono veramente meteorologia e climatologia: “Clima bene comune” di L. Mercalli e A. Goria 

Per una breve spiegazione sui sistemi dinamici caotici, per chi fosse un po’ intimorito dalle formule, rimando alla Treccani: http://www.treccani.it/enciclopedia/sistemi-dinamici- caotici_(Enciclopedia_della_Scienza_e_della_Tecnica)/

Riccardo Muolo

Liberal Naturalism

HLC – Cern di Ginevra

Uno degli argomenti più delicati del dibattito contemporaneo è: la scienza è davvero la soluzione a tutte le nostre domande? La risposta immediata è «no». Esistono problemi irrisolti. È – in effetti – una risposta corretta, tuttavia semplicistica. È vero, esistono problemi irrisolti, ma alcuni di questi sono risolvibili, altri no.

Prima o poi riusciremo a ricostruire una gamba paralizzata, ma mai e poi mai – perlomeno così mi è stato detto – riusciremo a ricreare il Big Bang in laboratorio. Esiste tuttavia una scuola di pensiero, peraltro abbastanza forte, che ritiene che l’unico modello di pensiero valido sia quello scientifico. Punto.

I seguaci di questo atteggiamento si fanno chiamare naturalisti (ehehehe, vi ricorderete: il nostro amico W.V.O. Quine è un po’ il capoccia della compagnia).

Un naturalista ha, semplificando, quattro convinzioni:

  1. esistono solo gli oggetti che la scienza è in grado di gestire. In altri termini esistono solo gli oggetti materiali;
  2. esiste un solo metodo di indagine della realtà: quello scientifico classico;
  3. le uniche frasi vere del nostro linguaggio sono quelle che si riferiscono a oggetti materiali (punto 1).
  4. la filosofia e la scienza sono la stessa cosa. Attenzione: la stessa cosa. Fico no? Dov’è la fregatura? Che se sono proprio proprio la stessa cosa non esiste una distinzione tra le due. Esiste un solo modo di pensare la realtà, esiste un solo vincitore. Indovinate chi? Già, la scienza.

Ora, io non è che ce l’abbia con i naturalisti perché non mi danno risposte sul senso della vita, o perché dicono che la filosofia è un’attività da femminucce.

Strettamente parlando non me ne potrebbe fregare di meno del senso della vita e sono abbastanza sereno per quel che inerisce la mia sessualità.

Io ce l’ho con i naturalisti perché fanno cattiva teoria. Detto in maniera più raffinata, sparano stronzate.

1. Esistono solo oggetti materiali

Non prendiamoci in giro: vogliamo negare che le proprietà esistano? Il rosso esiste. E non esiste solo in quanto radiazione luminosa. Esiste la classe di tutti gli oggetti rossi, l’insieme di tutto ciò che è rosso. Un’equazione non esiste? Ci andrei piano. I numeri non esistono: e allora come si fa a far scienza?

2. Esiste un solo metodo

Falso. Il metodo scientifico ipotizzato da Bacone nel ‘600 non è l’unico adatto a spulciare le pieghe della realtà, anzi, è pure abbastanza vecchiotto. Esistono vari metodi. Popper ci insegna che anche la deduzione (esclusa dal metodo classico) ha una sua importanza.  La verifica delle ipotesi avviene, infatti, su base concettuale (leggi filosofica…). Insomma, gli scienziati veri (non quelli sognati dai naturalisti) non sono così tonti da lavorare con un solo strumento. Sarebbe come abbattere una sequoia con un coltello da cucina.

3. Si può parlare solo degli oggetti materiali.

Hah! L’inflessione di una curva di certo non è un oggetto materiale, eppure in un testo di analisi matematica se ne parla (yahoo!). Non basta? Io non credo esista Il Bene. Non solo non è un oggetto materiale, non è proprio un oggetto. Punto. Eppure il mio prof. di etica ne parlava estensivamente (pure troppo).

4. La filosofia e la scienza sono talmente la stessa cosa che… esiste solo la scienza.

Dai su. Se sono la stessa cosa allora vuol dire che esiste una cosa che si chiama Conoscenza che le include entrambe. Questo è l’approccio che piace a me. Questo è il ragionamento giusto, non: mio nonno ha tre palle ergo è un flipper. Ciò per quanto riguarda la forma dell’approccio naturalista. Quanto al contenuto: davvero siamo così certi che la scienza possa fare a meno della filosofia? Chi dice allo scienziato cosa sia la scienza? Chi dice allo scienziato cosa sia una teoria? Chi ha influenzato la reazione di Einstein contro la meccanica quantistica? Altri scienziati? No. Un filosofo. Baruch Spinoza. La relatività generale si fonda su un concetto speculativo: Dio c’è e “non gioca a dadi” (tradotto per gli atei: il caso non esiste). Convinti? Spero di sì.

Ora, io sono un cazzone e la mia decostruzione del pensiero naturalista è una pagliacciata. Ma non è poi tanto distante da una teoria che il buon vecchio Hilary Putnam ha tirato fuori recentemente.

La scienza, ragazzuoli, è importante. Non illudiamoci di poter incidere sul reale senza saperne qualcosina di biologia o di astronomia. La poesia è un’attività assolutamente meritoria, ma nel 2014 il pensatore deve essere più vicino al fisico che al letterato. Se poi riesce ad essere entrambi meglio ancora.

Hilary Putnam

La teoria di Putnam è coerente con questo atteggiamento. Si chiama naturalismo liberale. Come il naturalismo classico (quello di Quine) riconosce il valore della scienza, ma non ritiene che sia la sola e unica fonte di sapere. Si dice liberaleperché liberalizza, allenta, decostruisce i quattro assunti classici su enti, metodo, linguaggio e filosofia. La liberalizzazione consente di far spazio a oggetti come i numeri e attività di natura etico-culturale, il tutto riconoscendo il valore di un approccio empirico al reale.

Perché adottare il naturalismo liberale come modo di vedere il mondo intorno a noi? Perché non racconta favole. Né quelle dei poetuncoli sul Senso della Vita né quelle dei materialisti sulla morte dei valori.

 

La scienza: normalità o rivoluzione?


Avete presente tutte quelle belle scoperte che riempivano al liceo i nostri libri di fisica e scienze naturali? L’immagine più comune che ci viene in mente è quella dello scienziato che fa ricerca nel suo laboratorio, verifica tutte le sue ipotesi, pubblica, diventa famoso e vince il Nobel. La sua scoperta verrà così divulgata e si riscriveranno i testi accademici. Tutti accetteranno pacificamente la nuova teoria e godranno di una nuova e più profonda comprensione della realtà.


Niente di più falso per Thomas Kuhn, filosofo e storico della scienza, grande avversario di Karl R. Popper e amico di Willard van Orman Quine.

Quella appena descritta è un’immagine banale di come stanno le cose. Facciamo un passo indietro: qualsiasi spiegazione scientifica prevede alle sue spalle un insieme di scoperte riconosciute e universalmente accettate dalla comunità di ricercatori, che chiamiamo paradigmi. Detto in modo più raffinato, un paradigma è quel quadro di riferimento condiviso dalla maggior parte degli studiosi di credenze, assunti metafisici e modelli culturali affermati da tempo. Esso non c’entra nulla con prove empiriche, verificazionismo, cigni neri o n+1. Il paradigma dipende da fattori extrascientifici, cioè sociali e psicologici (perché no anche economici). 
In sostanza si basa sugli interessi accademici di un titolare di cattedra: chi detiene tale modello interpretativo cercherà a tutti i costi di difenderlo e conservarlo, tentando di osteggiare qualsiasi altro paradigma che non sia quello dominante.

 «Se confutassimo quello che ho insegnato per anni all’università che fine farebbero tutti i miei libri e la mia carriera di bravo docente? Se fosse vanificato il mio paradigma perderei tutti i finanziamenti al mio dipartimento, peggio ancora  l’assistente che ha fatto la scoperta mi ruberebbe il posto». Pensa in questi termini lo scienziato medio, secondo Kuhn.


Il paradigma funziona confrontando i fatti empirici con quanto previsto dalle teorie ammesse dal paradigma stesso, quindi realizzando le promesse che la visione dominante della realtà ritiene auspicabili; questa attività è definita da Kuhn scienza normale.

C’è la possibilità che si presentino anomalie che riescano ad essere spiegate all’interno di quel contesto. Ma quando tali anomalie si moltiplicano esponenzialmente e il paradigma dominante non riesce più a risolverle, si entra nella crisi del paradigma e inizia la scienza rivoluzionata. Si mettono in dubbio i principi fino ad allora consolidati e si tenta di scalzare il vecchio paradigma (con la gioia di tutti quei assistenti anonimi o ricercatori in secondo piano che fino a quel momento in ombra, cercano di imporre un nuovo quadro di riferimento).

La proprietà del nuovo paradigma è di essere incommensurabile (totalmente incompatibile), visto che sarà sempre in contrasto con quello fino a quel momento dominante, data la differenza di prospettiva sugli stessi fatti. Tale processo qui schematizzato può avvenire in poco tempo come anche in periodi lunghissimi. Segna una trasformazione nel modo di vedere il medesimo mondo, ripensando concetti e approcci, relazionando in modo diverso i dati. Così la scienza rivoluzionata diviene paradigma dominante e scienza normale.

Le rivoluzioni scientifiche secondo il Kuhn possono avvenire non soltanto per questioni empirico-teoretiche, ma anche per fatti meramente umani: rivalità fra scienziati, questioni religiose, intromissioni politiche e perfino motivi estetici su quale soluzione sia “più elegante”. Insomma Thomas Kuhn fornisce una visione diametralmente opposta a quella logica presentata dal neopositivismo o da Popper (verificabilità e falsificazionismo): la scienza viene descritta non come  fatto assoluto ma come fatto relativo. Essa non è progresso, bensì contingenza ermeneutica.

Una nota critica: spezzo una lancia in favore del suo avversario Popper. Si può facilmente notare che quando avviene una rivoluzione scientifica i risultati della scienza normale precedente non vengono distrutti: anche se abbiamo la fisica quantistica, i teoremi di Archimede o gli esperimenti di Torricelli non sono stati spazzati via ma integrati nel più ampio sistema della conoscenza. Il buon senso dunque corregge Thomas Kuhn quando notiamo che uno o più paradigmi possono non solo convivere ma anche incastonarsi fra di loro per un miglioramento della nostra conoscenza. 

Nonostante questo il suo libro La struttura delle rivoluzioni scientifiche rimane un classico e una lettura obbligata per chi di filosofia della scienza si interessa. Oggi infatti la tendenza è quella di filosofi come Imre Lakatos (allievo del sopracitato Popper) di conciliare il falsificazionismo con le istanze sociali e storiche di Kuhn.


Alessio Persichetti

Due facce della stessa medaglia

Karl Popper. Come molti già avranno intuito sulla base dell’argomento del post della scorsa settimana, oggi si parla di Karl Popper, teorico del “falsificazionismo”.

Come si attesta la verità di un enunciato scientifico secondo Popper? Chiarendo la sua non-falsità. “Tutti i cigni sono bianchi”. Come verificare questa proposizione? Schlick avrebbe detto: «andando a caccia di un sufficiente numero di cigni bianchi». Popper avrebbe detto: «andando a caccia di un cigno nero»!

Popper qui segna un punto a suo favore rispetto ai falsificazionisti: è più comodo definire la robustezza di una teoria scientifica andando ad accertarsi della debolezza dei suoi avversari! Nel caso della teoria circa “il colore bianco dei cigni”, l’esistenza di un cigno nero è un formidabile antagonista.

Un altro esempio. Vogliamo accertarci che “l’acqua, al livello del mare, raggiunga l’ebollizione ad una temperatura di 100 gradi”. Domando al lettore: è più comodo, per un provetto scienziato, portare a ebollizione 1000 pentole d’acqua (proposta di Schlick) o portare un’unica pentola alla temperatura di 99 gradi e, in tal caso, accertarsi che ad una temperatura inferiore ai 100 gradi la dannatissima acqua non bolla?!

Non nego che, tutto sommato, i due approcci siano due facce della stessa medaglia. Di base entrambi i metodi risultano verosimilmente validi. Certo, nel caso del verificazionismo il “caso bastardo” è sempre in agguato: potremmo tranquillamente incontrare 1000 cigni bianchi, d’altra parte l’atroce dubbio che il milleunesimo sia nero rimane ben saldo a roderci l’anima. È però vero che un bravo scienziato sa utilizzare il metodo di Schlick in sinergia con una buona dose di statistica: in tal senso il “caso bastardo” viene previsto ed eventualmente incluso nei protocolli di ricerca da principio.

Per quanto non dubito della validità pratica di entrambi i metodi (ne gioirà il mio ottimo amico Radlov), devo però rendere giustizia ad altri miei compagni di studi (ben più ferrati del sottoscritto), appassionati di problematiche logiche.

Il verificazionismo si basa, come vi accennavo, sul “principio di induzione”. Tale principio asserisce che “casi simili a quelli osservati sono veri in casi non esaminati”. Bene, come giustifichiamo tale principio? Verificando che esso funzioni per un certo numero di volte? Ma questo è un circolo vizioso! Giustifichiamo un principio ricorrendo al principio medesimo! È semplicemente inaccettabile. Una seconda soluzione potrebbe essere quella di accertarci della bontà del principio di induzione mediante un procedimento deduttivo. Peccato che tale possibilità non sia ammissibile. Non possiamo giustificare un’inferenza induttiva su basi deduttive. Sarebbe come accendere un fuoco con un secchio d’acqua. Non solo. Ammetteremmo tacitamente la bontà della tesi di Popper (che non a caso chiamava il suo falsificazionismo “metodo deduttivo dei controlli”).

Insomma, verificazionismo e falsificazionismo sono due facce della stessa medaglia. Il primo risulta però più debole poiché fondato su inferenze logiche di tipo induttivo, il secondo più forte poiché basato su deduzioni (in primis, per gli interessati, il “modus tollens”).


Giulio Valerio Sansone

Il cigno nero

Come stabilire se una teoria scientifica dice il vero? Una risposta intuitiva è «verificandola!». Ma cosa vuol dire “verificare?”. Procediamo con ordine.

L’austriaco Moritz Schlick, esponente di spicco del Circolo di Vienna, riteneva che un enunciato scientifico dicesse il vero nella misura in cui rispettava un criterio di verificazione. Tale criterio era «l’esser presente o il non esser presente di certi dati1». In altri termini, una teoria scientifica è vera se ci sono fatti empirici che ne supportino la verità, che rendano-vera (verum-facere) la teoria.

Banalmente, per poter affermare che l’enunciato «tutti i cigni sono bianchi» sia vero, sarà sufficiente definire il nostro criterio di verità: se saremo in grado di osservare empiricamente che un certo numero di soggetti (cigni) posseggono la proprietà in questione (essere bianchi), allora potremo dire che “soggetti simili a quelli osservati, sono veri in casi non osservati”. Insomma, applichiamo il cosiddetto principio di induzione: dato che i cigni osservati finora sono bianchi, allora tutti i cigni del mondo sono bianchi. Punto.

Un simile approccio epistemologico risulta essere perfettamente coerente con la visione del reale propria di tutti gli esponenti del Circolo di Vienna, secondo i quali gli unici oggetti esistenti sono fatti empirici e principi logico-matematici (no, gli unicorni non sono inclusi2). In effetti, la verificazione del nostro enunciato scientifico non necessita di nulla più: abbiamo i cigni empiricamente osservabili e il principio logico d’induzione con cui rielaborare le nostre osservazioni. Meglio di così direbbe qualcuno3

Eppure questa lineare e cristallina proposta presenta delle falle. Quali? In attesa di rivederci la prossima settimana vi lascio un indizio.



Giulio Valerio Sansone



1 M.Schlick, Allgemeine Erkenntislehre, trad. it. di E.Palombi, Milano 1986, pagina 188.

Vedi il mio “Sulla non-esistenza di Gatto Silvestro” del 28 Marzo scorso.
Chiamo qui in causa Còrar Radlov.