Home / Tag Archives: logica

Tag Archives: logica

Il possibile e il suo uso.

La categoria del possibile racchiude tutti quegli enunciati del linguaggio che riguardano espressioni come “è possibile che…”, “…e se…” e via discorrendo. Non possiamo fare a meno nella vita di tutti i giorni e nel linguaggio ordinario che adoperiamo di parlare in termini di possibilità: cose che potrebbero accadere, succedere o viceversa, situazioni di cui non vi sono i presupposti per la propria attuazione, ma utili per spiegare qualcosa di reale e attuale. Oppure di scelte che potevano essere compiute e non lo sono più state. O di irreale, come nel caso dei mondi possibili nella logica modale di Saul Kripke. Come è evidente, il possibile come uso nel linguaggio è qualcosa di ampio e variegato, grazie alla potenza espressiva (e perché no anche della sua ambiguità) del linguaggio naturale con cui comunichiamo. Fatta questa assunzione, quel che vogliamo fare oggi è mostrarvi l’uso che invece se ne fa in filosofia. Se non è esauriente riguardo a cosa sia il possibile nelle frasi più banali e semplici del nostro uso quotidiano, quantomeno è utile per evitare di compiere errori concettuali.

Delimitando la nostra descrizione al linguaggio filosofico possiamo distinguere possibilità logica, possibilità concettuale, possibilità metafisica, possibilità epistemica e possibilità fisica.

La possibilità logica riguarda la possibilità che una proposizione di un linguaggio formale, come potrebbe essere la logica simbolica, non sia contraddittoria. Cioè che il suo stato vero funzionale sia vero e non falso. Detto in altri termini, che rispetti le regole della logica formale. Ma c’è anche la possibilità controfattuale: frasi solitamente al congiuntivo, che esprimono uno stato di cose se sono date certe condizioni; per esempio “Se riscaldassi questo pezzo di burro a 65°, allora si scioglierebbe”. Cose per definizione false, ma che potrebbero accadere posti certi assunti compatibili con il mondo che abitiamo.

A seguire vi è la possibilità concettuale. Diciamo che qualcosa è concettualmente possibile se riusciamo a immaginarcelo nella nostra testa senza particolari difficoltà. In maniera più precisa, sono in grado di concepire x concettualmente se non è automaticamente escluso dall’insieme di tutte le verità concettuali con cui affrontiamo il mondo. In poche parole, è concettualmente rappresentabile, seppur non vera, una luna di formaggio. Il caso classico è quello del dibattuto esperimento mentale degli Zombie di David Chalmers: potrei in linea di principio concepire entità uguali biologicamente agli esseri umani, che si comportano esternamente come tali, ma che sono privi di mente. Per l’autore dell’esperimento tale concetto è pensabile, ma per un altro filosofo materialista come Daniel Dennett no; se li concepissi uguali in tutto e per tutto agli esseri umani, allora sarebbero tali, non degli zombie.

Per parlare invece di possibilità metafisica dobbiamo richiamare brevemente la questione dei cosiddetti mondi possibili. La nozione fu trattata sistematicamente a partire da Gottfried Wilhem von Leibniz nel suo scritto Sull’origine radicale delle cose, dove immaginò un mondo come un insieme finito di cose che a sua volta è inserito in una collezione di mondi coesistenti e possibili, i quali tutti insieme formano il nostro universo. Tale idea è stata portata avanti nella storia della filosofia contemporanea da altri, come Saul Kripke riguardo ai nomi propri o da David Lewis come realtà parallele vere e proprie. Senza entrare nel merito se esistano o meno ontologicamente, qualcosa è metafisicamente possibile se è vero in almeno in un mondo possibile.

Dopodiché vi è anche una possibilità epistemica, ovvero che qualcosa è conoscibile e non sia esclusa a priori dal nostro insieme di conoscenze. È probabile che gli strumenti a mia disposizione in questo momento storico non siano sufficienti per scoprire nuovi materiali, ma nessuno può affermare che in un prossimo futuro non sia in grado di effettuare la scoperta di un nuovo elemento della tavola periodica.

Per ultima, la possibilità fisica, probabilmente la meno problematica. Come spiega il nome stesso, qualcosa è possibile dal punto di vista fisico se è in accordo con le leggi della fisica. Tutto qui.

Ci fermiamo a questo punto con l’elenco degli usi linguistici della possibilità, che come direbbe Wittgenstein, rappresentano il loro significato. Altro dovremmo fare, visto che la categoria del possibile rimane comunque una fonte di confusione e grattacapi per i pensatori di mestiere. Ma per quello che dobbiamo fare tutti i giorni all’università, in edicola o al bar l’uso ingenuo basta e avanza.

Bibliografia consigliata:

Massimo Mugnai, Possibile/Necessario, Il Mulino, Bologna 2013.

”Che cos’è la logica?” di Hilary Putnam.

La copertina.

Quando esce un nuovo libro di Hilary Putnam è sempre un evento: uno di quei pochi filosofi che sanno toccare qualsiasi tema con un certo rigore e un’invidiabile umanità, come se fosse un caro amico con cui conversare. È successo con Fatto-valore. Fine di una dicotomia e altri saggi e si ripete con questo Che cos’è la logica?, a cura del Prof. Mario De Caro dell’Università degli Studi di Roma Tre. Una raccolta di riflessioni sulla logica, campo in cui diede numerosi contributi (in aggiunta ad altri come la filosofia del linguaggio, filosofia della matematica, ontologia, epistemologia, ecc.).

In Che cos’è la logica? Putnam tenta di delineare alcune risposte ad alcune fondamentali domande oggetto della filosofia della logica, quell’area della filosofia che si interessa di definire lo statuto della logica in sé e evidenziare le conseguenze filosofiche di certe assunzioni logiche. Ad esempio, come può la logica contribuire alla nostra visione del mondo e alla sua costruzione? Oppure, come possono gli enunciati riferisi a qualcosa di extra-linguistico nel mondo? La logica ci può dire tutto oppure hai dei limiti rispetto a ciò che possiamo conoscere? Perché è fondamentale rispetto alle nostre teorie? Ma anche casi che possiamo incontrare comunemente nella vita di tutti i giorni: siamo davvero certi che i nostri argomenti siano davvero corretti e quando? O chi garantisce che il metodo usato in matematica e nelle scienze naturali sia giustificato?

Questa raccolta di saggi è in effetti un grande volo d’uccello sui problemi che i logici e i filosofi incontrano nel proprio percorso. Un buon risultato che mostra come la logica non sia semplicemente un esercizio formale, quanto il discrimine fra ragionamenti formulati correttamente e no. Sul che cosa conistono le nostre inferenze e il nostro linguaggio, in sostanza sul cosa davvero abbia senso e cosa no. Un’assunzione o un teorema sono in grado di cambiare radicalmente le fondamenta delle nostre ipotesi, o come affermava W.V.O. Quine il lavoro del logico può dare un aiuto decisivo rifinendo le nostre teorie scientifiche. Quindi ciò Putnam intende mettere in rilievo in questo volume è che la scienza logica (riprendendo tale denominazione dal buon Hegel) è qualcosa che impatta inevitabilmente con tutto ciò che riguarda il modo in cui affrontiamo il mondo e lo comunichiamo agli altri (o come le altre persone lo comunichino a noi).

Qui si ripete: il grande pregio di Putnam, che ogni filosofo dovrebbe avere, è l’affrontare temi così complessi in maniera colloquiale, amichevole e al tempo stesso con eccezionale rigore accademico.

 

Hilary Putnam, Che cos’è la logica?, a cura di M. De Caro, Mondadori Università, 2014, pp.304, €18.

Una questione inconcludente: filosofi analitici e continentali.

Osservando i programmi di molti dipartimenti di filosofia si può benissimo notare quale sia l’approccio dominante in quell’area (come si dice i frutti si riconoscono dall’albero). Filosofia continentale o analitica? Si è soliti scherzare sulla divisione in questione domandando: ti interessi di un autore o di un problema? Se qualcuno risponde con il primo è certamente di area continentale, altrimenti corrisponderà per l’appunto all’idea di filosofo anglosassone di area analitica.

Lo stereotipo è che i filosofi analitici si occupino di problemi inerenti alla logica, il linguaggio e così via, interagendo con svariati campi del sapere (neuroscienze, diritto, matematica ecc.) e tralasciando lo studio degli aspetti storici della filosofia e avendo come massimi esponenti Wittgenstein, Bertrand Russell, John Ayer, W.O. Quine e Daniel Dennett. Al contrario, la filosofia continentale si interesserebbe maggiormente a una lettura storico-sociale della realtà, ponendo maggiore enfasi sulla storia delle idee e cercando un approccio vicino a quello della letteratura, della psicanalisi e dell’ermeneutica; rifacendosi quest’ultimi ad autori come Martin Heidegger e a correnti come marxismo, fenomenologia e esistenzialismo. Un esempio potrebbero essere figure di spicco come Nietzsche, Jacques Derrida, la Scuola di Francoforte e Michel Focault. Come si può benissimo notare, già nella descrizione delle rispettive diversità risuona qualcosa che ha del ridicolo.

Ma dove nasce questa spaccatura nel filosofare attuale? Il problema piuttosto che di natura concettuale, è altresì storico e contingente, come dimostrano ottimi lavori come Origini della filosofia analitica di Michael Dummett e Analitici e continentali. Guida alla filosofia degli ultimi trent’anni di Franca D’Agostini. Entrambi gli “approcci” sono infatti radicati nei problemi al centro del dibattito dei primi del Novecento: l’intenzionalità, la matematica e la lingua, oltre ad avere nemici comuni come lo psicologismo, testimoniato dalle interazioni fra i capostipiti delle due presunte tradizioni, Frege e Husserl. Nonostante la comune origine, ben presto si formò una contrapposizione consistente in diversità di pensatori fondamentali, metodo e stile; tutto questo alimentato prima dall’allentamento di una parte del mondo accademico inglese da certe forme di idealismo (Bradley fra tutti) e poi dalla pubblicazione di Che cos’è Metafisica? di Heidegger, la quale raccolse favori piuttosto discordanti in Germania, Francia e nei paesi anglofoni, accentuando ulteriormente la scissione. Ben presto l’uno smise di leggere l’altro, venendosi a creare due mondi filosofici separati e geograficamente localizzati: filosofia analitica nei paesi anglofoni e scandinavi, mentre quella continentale in nazioni come Italia, Francia, Germania e Europa dell’Est.

Aldilà dell’annotazione storiografica, la distinzione non è poi così netta, andando nello specifico: filosofi come Hubert Dreyfus e Richard Rorty hanno proposto argomenti interessanti partendo da idee prese da entrambe le tradizioni filosofiche. Wilfrid Sellars per esempio è stato uno degli esponenti in lingua anglosassone che ha posto grande enfasi sull’approfondimento storico della filosofia, tralasciato inizialmente in quel preciso contesto accademico. Oppure pensiamo al dibattito sul tema del liberismo, società e politica: uno dei principali protagonisti fu Charles Taylor, quest’ultimo formato su Hegel e altri autori tipici di quella frangia considerata “continentale”. Oppure, un pensatore che avrebbe dovuto rappresentare la quintessenza del filosofo analitico, Hilary Putnam, ha mosso nel suo ultimo periodo il proprio studio verso la filosofia ebraica e alcuni pensatori appartenenti alla corrente fenomenologica (in primis Emanuèl Levinas). O ancora, nel contesto della filosofia della mente si sta prendendo in considerazione alcuni contributi classici della fenomenologia husserliana, che sta venendo a costituirsi come neurofenomenologia. In fine, una filosofia autenticamente “americana” come il pragmatismo ha dimostrato, attraverso gli scritti di Peirce, James o Dewey, come difficilmente uno stile di pensiero così complesso possa essere ricondotto a schematizzazioni così vaghe. La lista potrebbe allungarsi ulteriormente, volendo.

Secondo, sono più i problemi che accomunano entrambe le tradizioni, piuttosto che quelli che le separino. Prima di tutto non è vero che la svolta linguistica abbia interessato solo l’ambito della filosofia analitica; anche dai filosofi continentali fu posto un rilievo non di poco rispetto ai problemi del linguaggio: l’emeneutica e la scuola strutturalista per citarne i risvolti più influenti. Viceversa il dibattito sulla metafisica ricopre un ambito privilegiato in ambo gli schieramenti, seppur declinato in maniere diverse dai due: che sia l’essere sia inerente a come usiamo le parole o alla volontà di potenza, esso è soggetto privilegiato della ricerca speculativa (come rivela la rinascita degli studi di ontologia nell’ultimo decennio). Altro caso in cui vi è accordo fra le parti forse è proprio quello dell’estetica: il Journal of Aesthetics and Art Criticism e il British Journal of Aesthetics ospitano interventi non così distanti dall’estetica europea. Sta di fatto che raramente si parla di “estetica analitica”, ma piuttosto di estetica al singolare.

Terzo punto, forse la lezione più importante: i problemi in filosofia sono molti e i filosofi si occupano di alcune questioni rispetto ad altre. A differenza delle scienze, la filosofia non ha un metodo precostituito né regole prestabilite per giocare il gioco. Non c’è una maniera privilegiata per tale gioco filosofico. La logica e la scienza hanno lo stesso peso della storia, dell’arte e della letteratura nella vita di un individuo: ma ad alcuni interesserà sapere il ruolo che la società e la cultura svolgono nel contesto politico, ad altri le condizioni di verità di un enunciato, il paradosso del mentitore o in cosa consista la matematica. Dopotutto andando a vedere cosa le etichette contengono, i due non sono fenomeni così unitari: la filosofia continentale racchiude in sé svariati movimenti e linee di pensiero, spesso in competizione fra loro; mentre all’interno della filosofia analitica non vi è un accordo così pacifico sullo statuto filosofico (naturalismo o non naturalismo?) e non tutti concordano sull’insieme dei problemi. Due nomi quindi che si dimostrano incapaci di rendere conto della molteplicità di stili che la filosofia ha prodotto nel XX secolo.

Le categorie “analitico” e “continentale” sembrerebbero dunque frutto più di divergenze storiche e sociologiche, piuttosto che realmente speculative. Qualsiasi criterio proposto tende sostanzialmente a porre indicazioni di carattere extra-filosofico, invece di delineare differenze al suo interno. La nuova generazione di studiosi nelle accademie dovrebbe mettere da parte questo genere di distinzioni, prive di qualunque giustificazione metodologica o teorica, cercando al tempo stesso di cogliere il meglio delle due tradizioni.

Il Dogma delle ontologie parsimoniose

L’ontologia è un discorso spinoso all’interno del dibattito filosofico, non solo nell’ambito attuale, ma all’interno a tutta la storia della filosofia. Citando Achille Varzi: «Che esista tutto non si discute: esistere significa né più né meno che fare parte del tutto. Che cosa si intenda con “tutto” – quali cose si debbano includere in un “inventario completo” – resta da stabilire» (A. Varzi, Ontologia, Laterza Editore, p. 4). Ed è qui il punto di maggiore discordia: se dovessimo stilare i criteri per definire nella maniera più generale possibile una lista di cosa esiste nella realtà e cosa no, quali entità riterremo degne di essere menzionate?

Alcuni filosofi inserirebbero probabilmente i cosiddetti universali, entità non-fisiche (ciononostante realmente consistenti) che fungono da pietra di paragone o modello delle cose esperibili nella realtà (ad esempio la rossezza, l’essere un leone, ecc.). Altri e molto spesso buona parte dei metafisici, preferisce invece giocare al “ribasso”, cercando di formulare un inventario il più compatto possibile: il criterio fondamentale è il cosiddetto Rasoio di Ockham«Non moltiplicare gli elementi più del necessario»; in pratica, cercare di limitare il numero delle entità da considerare per risolvere un problema. Quest’ultima opzione, se non dominante, rappresenta uno dei più influenti approcci nell’ambiente accademico, quasi un dogma di fede ciecamente riconosciuto.

Willard van Orman Quine

W.O. Quine, uno dei massimi logici e filosofi del Novecento, fu tra coloro che diedero un’impronta piuttosto forte in questo senso. Contando che un terzo delle cattedre negli USA discende direttamente da Quine, non è difficile tirare le somme riguardo al successo delle sue teorie. Alcuni dei canoni che hanno delineato quello che qui chiamiamo “Il dogma delle ontologie parsimoniose”, è per l’appunto il suo articolo On What there is del 1948 (successivamente aggiornato e ristampato nella raccolta di essay From a Logical Point of View).

In sintesi: supponiamo che in dibattito ci sia un filosofo di nome McX che sostiene l’esistenza dei Pegasi alati. Chiunque potrebbe negare che i Pegasi in effetti non esistono nella realtà; McX risponderebbe con l’enunciato sul non-essere noto come la Barba di Platone: in poche parole, per negare una qualsiasi entità citata in una proposizione, bisognerebbe ammettere perlomeno un’esistenza “possibile”, altrimenti non avremmo nulla da negare. Quine però fa notare che tale genere di problemi di presentano nel momento in cui pretendiamo di usare nomi per delineare universali. Ma la domanda è: ci sono gli universali? L’errore più comune a suo parere è interrogarsi se nomi soggetti a disputa, nel nostro caso Pegaso, incarnino un universale (che in un modo o nell’altro ne presuppone l’esistenza). Ma la questione è invece: è data nella realtà una cosa con queste caratteristiche?

Prendiamo l’enunciato “Il cielo è blu”: se riesco a esprimerlo attraverso un enunciato linguistico, ciò non implica che tali entità chiamate in causa esistano (o siano possibili). Oppure dire che ci sia qualcosa, come il cielo, che istanzia la proprietà di “essere blu” non ci dice nulla riguardo la proposizione precedente; è un argomento circolare, poiché si giustifica l’affermazione con un altra di tipo equivalente.

La soluzione di Quine è questa: si può evitare il rischio di moltiplicare senza freno le entità postulate nella nostra visione del mondo, a patto che si faccia a meno dell’uso dei nomi (che da quanto visto nell’esempio di Pegaso possono portare a serie problematiche concettuali). In ontologia, secondo quest’ultimo, bastano i quantificatori per permettere di individuare un’entità, senza tirare in ballo qualcos’altro.

Un quantificatore è un operatore logico (ciò che connette una o più proposizioni in un linguaggio formale), la cui funzione è quella di tradurre in maniera formale espressioni come “tutti” e “alcuni”: il quantificatore universale ha la forma x , indicando così tutti gli elementi che rispondono a certe caratteristiche; il quantificatore esistenziale altresì serve a indicare precisi elementi di una classe di entità (o perlomeno per indicare che ci sono alcuni oggetti tali per cui…), da un punto di vista formale x.

Nei termini di Quine, un qualcosa esiste se la variabile quantificata (cioè la variabile da saturare in un’espressione coinvolta dal quantificatore) è riempita con l’entità stessa. In altri termini, se esistono gli oggetti definiti dai criteri del quantificatore, allora quella cosa sussiste in maniera consistente. Di conseguenza si può parlare di entità come “i cani bianchi”, senza coinvolgere universali come “bianchezza” e “essere cane”. Procedendo in tal modo è facile accorgersi che

Il punto centrale però non è solo l’affermazione riguardo le variabili vincolate. Il criterio guida del dogma della parsimonia è dato nella conclusione «Il nostro accettare una ontologia è simile in linea di principio, a mio parere, al nostro accettare una teoria scientifica; ad esempio, un sistema fisico: in entrambi i casi si adotta, per lo meno se si è ragionevoli, lo schema concettuale più semplice in cui si possano adattare ed ordinare i frammenti sparsi dell’esperienza immediata» (W.O. Quine, Da un Punto di vista Logico. Saggi logico filosofici, Raffaello-Cortina Editore, p.30). Quindi semplificare e ridurre il più possibile il nostro inventario del tutto, in modo tale da rendere la nostra teoria per ricostruire l’esperienza sempre più performante: «Anzi, la regola della semplicità è il nostro principio guida nell’assegnare i dati di senso a oggetti […] obbedendo alla richiesta della maggiore semplicità possibile nella rappresentazione totale del mondo» (W.O. Quine, Da un Punto di vista Logico. Saggi logico filosofici, p.31).

Ma domandiamoci: in fondo abbiamo davvero bisogno di questo nelle nostre ontologie? In effetti il catalogo di tutto ciò che esiste più parsimonioso e compatto immaginabile non vuol dire che sia banalmente l’ontologia migliore per i nostri scopi scientifici e non. Postulare entità come le proprietà o le cose possibili non implica necessariamente una moltiplicazione indiscriminata degli enti. In fondo, includere entità non consistenti o non fisiche, come gli universali, non è uno sbaglio se ciò fornisce comunque una teoria sulla realtà più efficace per i nostri scopi pragmatici.

Alla fine anche il dogma della parsimonia, a parere di questa sede, si deve arrendere di fronte all’inferenza alla migliore spiegazione: il criterio per cui se un entità esistente o meno semplifica la soluzione di un problema, allora perché non inserirla nel nostro catalogo ontologico?

Nomina nuda tenemus

G. Frege

Il titolo dell’articolo di oggi rimanda ad un tema ben preciso. I nomi. Non tuttavia ai nomi comuni, cui il verso che conclude Il nome della rosa di Umberto Eco allude, ma ai nomi propri. In un certo senso l’articolo di oggi vi presente una disputa che, mutatis mutandis, declina in termini moderni il dibattito medievale sugli universali.

Vi presento il problema: se dico Woody Allen mi sto evidentemente riferendo ad un buffo signore newyorkese, di origine ebraica, regista cinematografico. Gottlob Frege, padre della logica moderna, avrebbe detto che “Woody Allen” è il senso di Woody Allen. Il nome proprio in questione ha, infatti, un senso (il modo con cui il nome ci si presenta all’occhio, all’orecchio, al pensiero) ed un riferimento (l’oggetto occhialuto-newyorkese vero e proprio).

L’impostazione fregeana ha però una lacuna: che fare con i nomi propri di individui di fantasia? Che dire di “Ulisse”? Bel problema. Ulisse non esiste, non è mai esistito, eppure l’Odissea ha dato al suo nome una fama millenaria che non possiamo ignorare. A cosa si riferisce “Ulisse”? Ma soprattutto, se costruisco una frase con la parola “Ulisse”, come la valuterò? Mi spiego.

Ulisse sterminò i Proci.

Bene, la frase in questione è vera o falsa? Secondo Frege la verità di una frase è funzione della verità delle parti componenti. Non essendo Ulisse mai esistito, la frase non sarà né vera, né falsa!

La soluzione appena proposta ha però un vizio. Dire che un eneunciato non sia né vero né falso viola uno dei cardini della logica (almeno della logica standard): il principio di bivalenza. Secondo tale principio un enunciato è passibile di essere o vero, o falso, tertium non datur. Il cerchio-bottismo di Frege non convinse i più. Di certo non convinse Bertrand Russell, altro colosso della logica moderna.

B. Russell

Il filosofo inglese trovò un modo brillante per salvare il principio di bivalenza: i nomi sono delle mere descrizioni degli individui, degli espedienti retorici per abbreviare i discorso. “Woody Allen” sarebbe una mera abbreviazione della descrizione completa del buffo signore newyorkese. Il vantaggio di questa impostazione è che risolve il problema di Ulisse. Dire che quest’ultimo sterminò i Proci, presupporrebbe che esista qualche individuo abbreviato dal nome Ulisse che di fatto sterminò i suddetti cattivoni. La frase in esame si trasforma, allora, in:

Esiste un individuo x, tale che x sterminò i Proci.

Ora, è chiaro che un simile oggetto x non sia mai esistito. La frase è dunque falsa. Il principio di bivalenza è salvo.

Russell non è però l’unico filosofo a risolvere il problema. Il suo pupillo, Ludwig Wittgenstein, non fu da meno. Secondo l’autore del Tractatus logico-philosophicus, il linguaggio è un insieme di elementi immediatamente riferibili agli oggetti. Questi elementi sono strutturabili secondo un determinato ordine, al fine di ricalcare pienamente gli stati di fatto che sussistono nel mondo. In altri termini, se le parole ricalcano le cose, le frasi ricalcano i fatti. Le frasi sono formate da parole come i fatti sono formati da cose. Tuttavia, proprio come nel caso di un fatto mancante di ordine, allo stesso modo una frase dove le parole siano sparpagliate (“Proci Ulisse i sterminò”) non ha senso.

Una frase contenente un nome di fantasia, per il filosofo austriaco, semplicemente non è in grado di rappresentare uno stato di fatto. Se poi consideriamo che il mondo altro non è che la somma di tutti gli stati di fatto, allora possiamo raffinare ancora di più la nostra soluzione e dire che una frase contenente un nome di fantasia, semplicemente, è fuori dal mondo.

Un’ultima provocazione: il fatto “Ulisse sterminò i Proci” è fuori da questo mondo, certo. È tuttavia possibile immaginare un mondo alternativo dove così non sia?

Ne parliamo la prossima volta. Nel frattempo, tre testi chiave per chi avesse voglia di sbattersi un po’:

  • Frege, G., Senso e significato (1891) – Venti pagine, ma tosto.
  • Russell, B., I problemi della filosofia (1914) – Caruccio.
  • Wittgenstein, L., Tractatus logico-philosophicus (1922) – Tostissimo.
  • Penco, C., Introduzione alla filosofia del linguaggio (2010) – Una bomba.

 

Intelligenza Artificiale?

künstliche intelligenz«Logos», termine greco per «pensiero» è traducibile anche come «parola», «verbo». Dalla notte dei tempi, generazioni di professori di filosofia torturano generazioni di studenti di liceo tentando di inculcare loro questo concetto. Facciamo per un momento, tuttavia, astrazione dalle pratiche sadiche appena citate e focalizziamoci un momento sull’equazione Logos=Pensiero=Parola. Cosa ne deriviamo? Bah, forse che il greco antico, linguaggio fondante della filosofia occidentale la parola è la manifestazione prima dell’atto di pensare. Non è poco. In passato, ho avuto modo di propinarvi una carrellata di articoli di filosofia del linguaggio. Perché? Perché proprio il linguaggio? Perché il linguaggio dice il pensiero, manifesta il pensiero, esprime la razionalità.

La domanda di oggi è: qualora una macchina fosse in grado di gestire  il linguaggio umano, si potrebbe dire che essa sia pensante? Oggi si parla di Intelligenza artificiale.

turing
A. Turing

Il matematico inglese Alan Turing (1912-1954) è il punto di partenza del nostro viaggetto. A lui si deve l’aver riportato in auge nel pensiero novecentesco un’idea più antica, risalente a Hobbes e Leibniz, secondo la quale pensare sarebbe calcolare. Il pensiero sarebbe allora un algoritmo, un procedimento che, mediante una serie finita di passi, deriva da un dato un risultato. Il modello matematico che Turing definì per dare corpo a questa sua intuizione prende il nome di MT(Macchina di Turing). La MT altro non è che un insieme di procedure di calcolo in grado di replicare qualsiasi manipolazione di segni, e dunque, qualsiasi forma di ragionamento.

Il contributo di Turing alla semantica, la branca della filosofia del linguaggio che studia il significato dei termini, non è da poco. Fino a quel momento, il paradigma semantico classico era di modellazione. Una buona teoria semantica era definita come quella in grado di modellare il modo in cui i termini si riferiscono alla realtà. Con Turing l’attenzione viene spostata sulla nozione di procedura: una buona teoria semantica è quella in grado di  produrre un protocollo di operazioni che connettono i termini alla realtà. Nella misura in cui queste procedure siano replicabili da una macchina, l’intelligenza artificiale diventa una possibilità concreta.

In effetti, se pensare si definisce come la capacità linguistica di usare segni, non c’è molta differenza tra un cervello ed un computer. Pensare è una funzione, il supporto fisico sul quale questa funzione viene sviluppata (i nostri neuroni od una scheda di silicio) è irrilevante.

Questa tesi, detta funzionalismo, si avvale di una considerazione ulteriore propria dell’ultimo Turing. Il Nostro elaborò infatti un test (Test di Turing) volto a stabilire quando una macchina potesse essere propriamente detta pensante  e quando no. Il test è semplice: un soggetto umano viene posto davanti ad uno schermo sul quale appaiono delle comunicazioni a lui indirizzate (una chat). Se il soggetto non è in grado di distinguere quando quelle comunicazioni gli vengono rivolte da un altro essere umano o da un’ altra macchina il test è riuscito. La macchina è intelligente.

Ora, il test è stato superato più volte da varie macchine. Possiamo dunque dire che l’intelligenza artificiale esista? Apparentemente sì. Prima di esserne certi, tuttavia, facciamo un ultimo ragionamento.

Searle
J. Searle

J. Searle ha elaborato un adorabile delirio: immaginate di essere rinchiusi in una stanzetta. Siete stati catturati da un cattivone cinese e posti in regime di schiavitù. In quanto tali, il vostro ruolo è di convertire alcuni simboli cinesi che vi vengono consegnati, in altri simboli cinesi che consegnerete al vostro carnefice. Per fare ciò, vi viene fornita una procedura guidata scritta in italiano. Con un po’ di esercizio diventerete bravini ed il vostro carceriere si compiacerà di voi. Wow! Passata l’eccitazione del momento, vi domanderete: «Ok, la cosa dei segni la so fare, ma io, il cinese, lo parlo davvero? Posso dire di saper parlare il cinese?». Se siete onesti e non soffrite di mitomania egotistica la risposta è no.

Il giochino che il vostro carceriere vi impone è un giochino sintattico, riguarda i segni in se stessi ed il modo con cui i segni possono essere convertiti gli uni negli altri. Nessuno di voi sarà però in grado di sapere cosa significhino quei segni. Ecco perché non si può dire che sappiate parlare il cinese. Parlare è un atto prima semantico, poi sintattico. È la nostra capacità di adoperare i termini in relazione ad oggetti realmente esistenti che sancisce la nostra padronanza linguistica ed, in ultima analisi, la nostra intelligenza.

La vera sfida per i fautori dell’intelligenza artificiale è proprio di natura semantica. Belli i giochini sintattici (la cui massima perfezione è espressa da Google), ma per parlare di intelligenza artificiale è necessario che la macchina acceda alla semantica. Il ponte tra filosofia e tecnologia si fa allora evidente: colossi dell’informatica quali HP ed IBM sono al lavoro alla ricerca del motore di ricerca semantico. Siete filosofastri incalliti? Dateci un’occhiata.

La congettura di Sen

L. Wittgenstein

Mi è capitato, tempo fa, di parlarvi di uno dei due maggiori filosofi del XX secolo: Ludwig Wittgenstein. La storia della filosofia tende a fare una distinzione tra il cosiddetto primoWittgenstein, autore del Tractatus Logico-Philosophicus e il secondo Wittgenstein, autore delle Ricerche Filosofiche.

Se il Tractatus si caratterizza per una forte connotazionelogicista, il secondo fa propria una visione del linguaggio più vicina al modo con cui il parlante ordinario la adopera. Mi spiego meglio. Il primo Wittgenstein si caratterizzava per un intento preciso: strutturare un linguaggio capace di riferirsi ad ogni singolo oggetto ed ogni singolo fatto esistente. Il mondo veniva definito come la totalità dei fatti e si riteneva che il linguaggio potesse integralmente replicare la struttura del mondo stesso.

Così facendo Wittgenstein si era convinto di aver risolto ogni possibile questione di interesse filosofico. Soddisfatto, si diede ad una serie di attività, dal giardinaggio all’insegnamento elementare, che poco avevano a che fare con l’ormai poco interessante filosofia.

Nel 1928, Wittgenstein cambia idea e torna, un anno dopo, a Cambridge. Il genio austriaco aveva intuito che la totalità delle questioni di interesse filosofico erano tutt’altro che risolte. Alcuni stati di fatto: le esclamazioni di dolore, le richieste di aiuto, gli ordini, erano tutto fuorché modellabili da una concezione formalistica del linguaggio quale quella esposta nel Tractatus.

Questa è, per sommi capi, la genesi del secondo capolavoro del Nostro: le Ricerche. C’è però un dato che manca. Qualcosa che la storiografia tradizionale ha a lungo ignorato. A cosa mi riferisco?

Nell’introduzione delle Ricerche compare un ringraziamento a Piero Sraffa, economista italiano, anti-fascista, chiamato a Cambridge da John M. Keynes. Sraffa e Wittgenstein strinsero amicizia ed iniziarono a frequentarsi settimanalmente, dando vita ad uno scambio di idee molto fertile.

La storiografia tradizionale, appunto, riduce il contributo di Sraffa al solo elemento superficiale, senza soffermarsi troppo su cosa cacchio avessero da dirsi un economista ed un filosofo del linguaggio. Detto in altri termini, nessuno si è mai preso la briga di capire cosa c’entrasse Sraffa con le Ricerche.

Amartya Sen

Questo almeno fino all’entrata in campo di un altro economista-filosofo: il premio Nobel Amartya Sen. Sen è il padre di una congettura interessante sul ruolo di Sraffa nel cambio di paradigma tra il primo e il secondo Wittgenstein, una congettura approfondita da Franco Lo Piparo, filosofo del linguaggio palermitano. L’idea di fondo è la seguente: Sraffa avrebbe attratto l’interesse del filosofo austriaco perché a conoscenza delle teorie circa la struttura ed il funzionamento del linguaggio di Antonio Gramsci.

Antonio Gramsci?! Che caspita c’entra adesso il fondatore del Partito Comunista Italiano, tra l’altro all’epoca blindato in carcere per la sua opposizione ai fascisti? Qui viene il bello, almeno per noi nerdacci-secchioncelli: Gramsci era un linguista. Aveva studiato la materia all’università, a Torino, proprio dove aveva conosciuto Sraffa. Detto sinteticamente: Wittgenstein avrebbe portato a termine il passaggio dalla prima alla seconda fase del suo pensiero, ispirato dalle idee di Gramsci. Sraffa, che negli anni del carcere visitava regolarmente Gramsci, sarebbe stato il mediatore di questa relazione.

Il pusher, insomma. Cosa sosteneva il politico comunista di così interessante per Wittgenstein? Gramsci aveva recuperato la distinzione marxistastruttura-sovrastruttura applicandola al linguaggio. Le nostre espressioni verbali e grafiche, rappresenterebbero l’elementomateriale (strutturale) del linguaggio. L’uso e il valore sociale del linguaggio ne rappresenterebbero, invece, la componente sovrastrutturale. Un esempio: la frase “La tavola rotonda è quadrata” è strutturalmente ben formata, tuttavia priva di senso. In alcuni specifici contesti d’uso, contesti sociali in cui l’individuo interagisce con altri individui, la stessa frase potrebbe tuttavia essere sensatissima! Si pensi ad una parola d’ordine, una frase di riconoscimento.

L’idea di fondo di Gramsci, dunque, è che la collettività sia in grado di dare al linguaggio un valore, una sensatezza, molto più ampia rispetto a quello che un’analisi formalista e logicista (Tractatus!) rivelerebbero.

Con altre parole, Wittgenstein esprime esattamente gli stessi concetti quando, nelle Ricerche parla di giochi linguistici, contesti in cui le regole del linguaggio sono definite dalla comunità dei parlanti. Regole sociali e pubbliche (sovrastrutturali), dunque, non individuali (strutturali). La somiglianza è sorprendente.

Due conclusioni: la prima è davvero campanilistica, ma poco importa. Non avevo mai parlato, prima d’ora di un autore italiano. Aver scoperto che il numero uno della filosofia del ‘900 possa essere stato influenzato da un nostro conterraneo è davvero una gran figata.

Secondo punto. Si fa un gran parlare della distinzione tra filosofia analitica e filosofia continentale. La prima sarebbe caratterizzata da interessi di genere logico-scientifico; la seconda si occuperebbe invece di etica, metafisica e antropologia. La distinzione è anche geografica: paesi anglosassoni da una parte, Europa continentale (appunto), dall’altra.

Il drammone è che le due parti si detestano: i continentali (non capendo una fava di logica) se la prendono con gli analitici accusandoli di essere superficiali. I secondi (poco abituati ad interagire con la complessità), se la prendono muovendogli la stessa accusa.

È una distinzione che non mi ha mai convinto. Mi sembra ridicolo inscatolare le idee in maniera così rigida.

Conferma di quanto questa distinzione sia sciocca viene proprio dalla congettura di Sen: Wittgenstein viene considerato il big boss degli analitici. Il Gramsci pensatore, invece, rientrerebbe probabilmente nel novero dei continentali.

Il fatto che uno dei maggiori capolavori della filosofia analitica possa essere stato ispirato dalle teorie di un continentale è la riprova di come la filosofia sia un fenomeno troppo ricco per essere ingabbiata in sciocche categorizzazioni.

Ho cambiato idea su Quine

Ri-pensare quello che abbiamo pensato: ragazzi non è facile. È un notevole esercizio di umiltà al quale anche noi di PoliNietzsche abbiamo deciso di prestarci, inaugurando la settimana di “Rethinking Polinice”, dedicata proprio al tema di “cambiare idea”.

Su cosa ho cambiato idea? Ho dato un’occhiata tra gli articoli scritti qualche tempo fa e ne ho trovato uno che mi lasciava non dico insoddisfatto – peggio. Sì, voglio confessarvelo: quando ho trovato il mio articoletto su W.V.O Quine del settembre scorso mi sono sentito proprio in colpa.

Tim Townsley – “W. O. Quine”

Quine è uno stronzo. È vero. Chiunque sia passato per uno dei suoi testi conosce quel senso di disagio che le sue parole, nette e affilate, provocano in noi studentelli di filosofia pieni di belle speranze. Quine è un filosofo che getta fango sulla filosofia. Il che è un problema. Non solo perché manda in pappa la testa di noi studentelli che ci chiediamo come ciò sia possibile, ma perché chi come me si immagina la Filosofia, o meglio Sofia, come una sorta di angelica signorina – per altro abbastanza gnocca – un oltraggio del genere proprio non può sopportarlo. E allora si prende la penna e si corre in difesa della bella Sofia. Così avevo fatto lo scorso 12 settembre. Un anno fa (qui il link).

E oggi?

Intendiamoci, non ho intenzione di lasciare Sofia alla mercé di Quine. Voglio tuttavia ammettere di essere stato troppo impetuoso l’ultima volta, ho taciuto degli aspetti del pensiero del filosofo americano sui quali oggi vorrei far luce – non ultimo per espiare il mio senso di colpa.

Riprendiamo il famigerato articolo del 2012. Qui sottolineavo alcuni aspetti della filosofia del linguaggio di Quine. Vediamo.

Secondo Quine il linguaggio nasce dal confronto che i nostri sensi hanno con la realtà. Da bambini, impariamo che la “macchia” che corre per il prato di casa nostra abbaiando e portando in bocca un osso si chiama «cane». Impariamo così che ogni cosa ha un nome. Successivamente ci rendiamo conto che l’oggetto cane ha delle caratteristiche: impariamo a questo punto a predicare e asseriamo «il cane è marrone». Il passo conclusivo è il più importante. Con il tempo il bambino impara a fare delle predizioni, del tipo: «Se il cane ringhia, allora è arrabbiato».

Queste predizioni sono il momento che fa esplodere il nostro processo di conoscenza, lanciandoci nel mondo della scienza. In fondo la struttura logica di «se il cane ringhia, allora è arrabbiato» è la stessa di «se il triangolo ABC è tale che l’area del quadrato costruito sull’ipotenusa sia uguale alla somma delle aree dei quadrati costruiti sui cateti, allora ABC è un triangolo rettangolo».

Detto questo mi ero trovato a sottolineare un fatto: tutte queste asserzioni, anche le più complesse, in fondo derivano da quel nostro primordiale contatto con la realtà empirica. Se da bambini non avessimo imparato ad attribuire il nome «cane» alle cose-che-abbaiano di certo non avremmo mai imparato il teorema di Pitagora. Almeno nella prospettiva di Quine, per il quale il fondamento del linguaggio sta proprio nei sensi, nell’esperienza.

Ecco, io criticavo proprio questo punto. Dicevo: dato che i sensi sono qualcosa di individuale, fondato sulla materialità del corpo del singolo individuo, quello che Quine sta facendo è dare una fondazione individuale e singolare del linguaggio. Il che non è accettabile, poiché il linguaggio è qualcosa di pubblico, non può essere privato. I significati delle parole devono essere condivisibili da tutti coloro che fanno uso del linguaggio e la ragione è semplice: come si fa a far scienza se il suo primo strumento – il linguaggio, appunto – ha una fondazione arbitraria?!?

Ora, la mia obiezione in effetti era appropriata. Oggi però vorrei proporvi la contro-obiezione al mio argomento. Un quineano avrebbe risposto sottolineando come la fondazione del linguaggio sia certamente empirica, ma non per questo arbitraria. Il perché di questo fatto sta nell’evoluzione della specie.

Spostiamoci nella savana. In un villaggio africano nascono 10 bambini. Questi imparano il linguaggio come tutti noi, nella prospettiva quineana, confrontandosi con il mondo empirico. Il mondo empirico nel quale questi bambini crescono è pieno di pericoli: immaginatevi l’effetto che il primo incontro con un leone può avere su questi giovani essere umani. Questa esperienza è però rilevante. In tale circostanza il bambino deve imparare a formulare l’implicazione «se quell’oggetto è un leone, allora io devo scappare».

Ipotizziamo che di quei 10 bambini uno non abbia imparato a formulare tale asserto. Cosa accadrebbe? Semplice. Con tutta probabilità morirebbe. Una volta cresciuto, lasciato solo, fuori dal villaggio nel giorno della sua iniziazione, davanti al famigerato leone potrebbe mettersi a fare lo scemo pensandolo innocuo, facendosi così sbranare. Il suo apparato percettivo, evidentemente, aveva strutturato l’implicazione fallace (α) «se quello è un leone, allora è innocuo», al posto della corretta (β) «se quello è un leone, allora io devo scappare».

Dal punto di vista evolutivo il risultato è impietoso: i 9 ragazzi capaci di formulare (β) sopravviveranno al giorno della loro iniziazione e troveranno una moglie ciascuno con la quale mettere al mondo prole. Il povero scemotto, invece, morirà prima di riprodursi, estinguendo il ramo di coloro che davanti al leone dicono «giochiamo?!».

La selezione naturale, impietosa, fa in modo che si determini un’armonia degli apparati percettivi tra i parlanti. In questa maniera il linguaggio risulta avere fondazione empirica ma non arbitraria.

Ecco su cosa ho cambiato idea: se si ammette la prospettiva di Quine, non si può dire che il suo sia un linguaggio fondato sull’arbitrio.

È evidente, tuttavia, che delle questioni rimangano aperte: (1) nessuno ci costringe ad ammettere tale prospettiva evoluzionistica; (2) nessuno ci costringe ad ammettere che il linguaggio sia fondato sull’esperienza. Per i quattro fidati lettori interessati alla questione, prometto: ci torneremo su a breve. Ho però già annoiato sufficientemente gli altri e per oggi, dunque, vi saluto.

Giulio Valerio Sansone – PoliNietzsche

Una logica per l’arte?

È possibile applicare la logica all’arte? Oggi vi propongo questa pippa mentale. [Fuggite!].
Abbiamo incontrato già altre volte il termine «deduzione». Vi do una rinfrescata: è un ragionamento che applica una legge generale ad un caso particolare. Esempio: l’articolo 146 comma III del codice della strada impone il divieto di attraversare un incrocio con il semaforo rosso. Questa è la legge generale. Ipotizziamo che zio Gino passi col rosso. Bene. Abbiamo il caso particolare. Ipotizziamo ancora che, appostato dietro un cespuglio, un solerte vigile della polizia municipale abbia notato l’infrazione di zio Gino: applicherà la legge al caso e dedurrà che è stata commessa un’infrazione.

Ci chiediamo noi, è possibile un simile comportamento (quello del vigile, non di zio Gino) davanti ad un’opera d’arte? In linea di principio sembrerebbe di sì. Di certo esisterà in una qualche  polverosa enciclopedia una definizione di opera d’arte. Questa potrà essere applicata a singoli oggetti (una mazza da golf, la Pietà Rondanini, uno spray anti-zanzara) per dedurre che la mazza da golf e lo spray anti-zanzara non siano opere d’arte, la Pietà Rondanini sì1.

Qui però si presentano due grossi problemi:
  1. Siamo certi che la nostra polverosa enciclopedia contenga una definizione di opera d’arte? Detto altrimenti, siamo certi che esista un’unica definizione di opera arte? No. Croce parla di «intuizioni liriche», Clive Bell di «intuizioni significanti», Hegel di manifestazioni sensibili dello Spirito… C’è da uscirne pazzi. Insomma. Manca la legge generale.
  2. Anche se la legge generale esistesse, siamo certi che sia legittimo mettersi a dare deduzioni davanti alla Pietà Rondanini? Forse un’opera d’arte più che essere dedotta andrebbe goduta… Forse arte e logica appartengono a due mondi diversi, l’una dovrebbe lasciare in pace l’altra.
È di questo avviso Ludwig Wittgenstein. Ora, Wittgenstein, oltre ad essere un vecchio amico di questa rubrica2, è anche una sorta di papà proprio di quei filosofi che vorrebbero fare delle deduzioni in mezzo al Louvre. Immaginate lo sconcerto di questi figlioletti quando si resero conto che papà, nel suo Tractatus Logico-Philosophicus  aveva negato la possibilità di applicare la logica in campo etico ed estetico, confermando quanto abbiamo detto al punto (2). Drammone.
Ora, la nostra storiella potrebbe finire qui. Abbiamo risposto alla nostra domanda iniziale: no, non è possibile applicare la logica all’arte. Vi tengo impegnati ancora qualche minuto perché, come in ogni famiglia che si rispetti, c’è sempre il cacchio di figlio ribelle che no, papà proprio non lo vuole ascoltare: George Dickie.
Dickie ritiene che un atteggiamento deduttivo che consenta di distinguere ciò che è arte da ciò che non lo è sia ancora possibile. Attenzione però, la legge da cui operare la deduzione deve essere meramente classificatoria e deve esimersi dal fare valutazioni circa l’opera. Perché? Perché Wittgenstein, per spiegare la sua posizione, aveva detto che di arte (ed etica) si può mostrare la verità, ma non se ne può parlare con rigore logico.
Bene, quel furbastro di Dickie pensò: se riuscissi ad elaborare una definizione di opera d’arte che sia classificatoria (mostra come stanno le cose) ma non valutativa (non dice come dovrebbero essere) avrei salvato capra e cavoli. Potrei fare tutte le deduzioni che voglio (yeeee) e non contravverrei al divieto di Wittgenstein.
Vediamo allora la definizione di Dickie:
L’oggetto x è un’opera d’arte qualora:
(I) x sia un artefatto,
(II) x abbia lo status di candidato all’apprezzamento da parte del mondo dell’arte (l’insieme di istituzioni  quali musei, riviste specializzate, curatori, galleristi, critici, storici, etc.).
Forte no? Peccato che sia una supercazzola. Dickie è un gran paragnosta, ci fa credere che la sua definizione sia avalutativa, ma guardate bene… nascoste ben bene troviamo tre paroline: «candidato-all’-apprezzamento». Cos’è un «apprezzamento» se non l’espressione di una valutazione? Daje Dickie, c’avevi quasi fregati!


PoliNietzsche – Giulio Valerio Sansone

______________________________________________________________________
[1] Questo atteggiamento è tipico di un certo modo di vedere la filosofia – detto analitico – che ha fatto scuola nei paesi di lingua inglese. Lo confesso: vado matto per questo approccio. Purtroppo 9 volte su 10 non mi trova d’accordo. «Amo et odi», diceva qualcuno.
[2] Vedi articoli: qui, qui e qui
[3] Per chi fosse interessato: D’Angelo, P., Estetica, Roma-Bari 2011.

Kurt Gödel: la questione dei fondamenti

Kurt Gödel (1906 – 1978) è il celebre autore dei teoremi di incompletezza dell’aritmetica. Con una banalizzazione si potrebbe dire che a lui si debba la dimostrazione dell’impossibilità di strutturare un sistema assiomatico che sia al contempo (1) esteso almeno quanto la matematica e (2) esente da contraddizioni.

Ieri mattina ho dato un esame e, in un momento di cecagna post-prandiale, ho reso giustizia ad un libro che dei cari amici mi avevano fatto avere per il mio compleanno qualche tempo fa: un’antologia di scritti scelti di Gödel (appunto) pubblicata da Bollati Boringhieri. L’antologia fa parte di una collana (I Grandi Pensatori) da tenere a mente: tutti gli scritti sono commentati da esponenti del mondo accademico di indubbia competenza e presentano un apparato bibliografico vastissimo (robba seria).
Veniamo al dunque, oggi vorrei parlarvi di uno di questi scritti del matematico austriaco: Il moderno sviluppo dei fondamenti della matematica alla luce della filosofia (1961). É l’abbozzo di una conferenza che Gödel avrebbe dovuto tenere presso l’American Philosophical Society, presso la quale era da poco stato ammesso.
L’idea della conferenza era quella di descrivere in termini filosofici lo sviluppo della riflessione sui fondamenti della matematica tra ‘800 e ‘900. Secondo il Nostro, in filosofia si possono delineare posizioni “di destra” e “di sinistra”. Tali posizioni si distribuiscono lungo un segmento dove sull’estremo destro (appunto) troviamo le proposte più vicine al pensiero metafisico. Spostandoci verso sinistra incontriamo, via via, atteggiamenti di pensiero più vicini all’empirismo.
È banalmente vero – dice Gödel – che dal Rinascimento in poi, la filosofia abbia assunto posizioni sempre più di sinistra, delineando così uno spostamento da un polo all’altro del segmento. Meno Aristotele e più Quine, insomma.
La matematica – per il suo carattere a priori – ha a lungo resistito allo Zeitgeist, a questo sviluppo da destra verso sinistra. Il momento di svolta si ebbe sul finire dell‘800, quando iniziarono a comparire le prime antinomie della teoria degli insiemi detta ingenua (vi ricordate il paradosso di Russell?). Si fece così strada un’idea mooolto di sinistra: un assioma non ha, in sé, nessun valore di verità. É l’esito delle deduzioni che da esso possiamo trarre che gli attribuisce maggiore o minore validità. In altri termini: un assioma è vero solo per ipotesi.
Gödel non nasconde di essere fortemente contrario rispetto ad un simile modo di intendere il problema dei fondamenti. A suo dire, le antinomie sono in linea di principio risolvibili. Inaccettabile è invece ridurre gli assiomi a mere istanze provvisorie della dimostrazione. Si deve tutelare con forza l’idea che la matematica sia sempre in grado di rispondere a domande del tipo sì/no poste correttamente.
David Hilbert tentò di proporre una sintesi tra destra e sinistra, strutturando sistemi assiomatici completi (destra) dove gli assiomi fossero meramente ipotetici (sinistra).
Ecco, Gödel sottolinea come nemmeno questa impostazione sia valida (lo dimostra proprio con i suoi teoremi di incompletezza). Cosa propone? Di assumere atteggiamenti di tipo intuizionistico: la verità di un assioma può essere colta mediante un atto di chiarificazione di senso che consista nel «mettere a fuoco più nitidamente i concetti coinvolti [gli assiomi] dirigendo la nostra attenzione in un modo determinato, precisamente sui nostri propri atti nell’uso di questi concetti» [1]. Detto così vuol dire molto poco (e infatti c’è di mezzo Husserl con la sua intuizione eidetica). In altri termini: l’utilizzo da parte nostra di un assioma vero, dovrebbe determinare in noi un nuovo stato di coscienza che attesti la verità dell’assioma stesso (anche questo non è molto chiaro: commenti-chiarimenti sono ben accetti).
Per rafforzare la sua tesi, Gödel chiama in causa Kant. Secondo il Nostro, una corretta interpretazione dei testi del filosofo di Königsberg andrebbe proprio nella direzione  da lui proposta. Notevole un passo della Critica della ragion pura [Krv A 717 = B 745] in cui Kant parla dell’impossibilità di portare a termine dimostrazioni geometriche in un numero finito di passi: sostituiamo “geometriche” con “aritmetiche” e abbiamo proprio i teoremi di incompletezza!
Insomma: Gödel, Husserl e Kant. Davvero un trio ben assortito. Di certo una stramberia agli occhi dei fautori della distinzione analitico/continentale, matematica/metafisica, kantiani/husserliani, pasta corta/pasta lunga, Gibson/Fender.
Non potevo non parlarvene.
Giulio Valerio Sansone

La redazione di PoliNietzsche si scusa per il ritardo nella pubblicazione del post causato da problemi tecnici.


[1] Vedi opera citata, pagina 232.