Di là dal Wiener Kreis: nuovi apporti e sviluppi

Negli anni della seconda guerra mondiale il neopositivismo d’origine europea (dopo la fine del Wiener Kreis e il passaggio oltre Atlantico di buona parte dei suoi membri) incontra altre tendenze di pensiero che presentano temi affini e risistema in nuova forma le sue tesi principali. V’è innanzi tutto l’innesto di motivi pragmatistici, la cui affinità con il neopositivismo Ch. Morris, professore a Chicago, aveva già indicato nel 1937 in Logical positivism, pragmatism and scientific empiricism. V’è inoltre il confluire, nella tradizione degli studi logici coltivati nell’ambito del neopositivismo, dei risultati raggiunti dalla scuola polacca di logica, di cui uno dei maggiori rappresentanti, A. Tarski, era emigrato dall’inizio del conflitto negli Stati Uniti.

Tra i primi scritti del Carnap nel periodo americano v’è una Introduction to semantics (1942): tuttavia non si tratta affatto di un ritorno agli interessi semantici del primo neo- positivismo, allorché si indagava sulla capacità significativa del linguaggio. La semantica di cui ora Carnap si occupa (come anche in Meaning and necessity, 1947) è la semantica ‘logica’ di cui già s’era interessato il Tarski con lo studio del concetto di verità nei linguaggi formalizzati. I problemi affrontati su questo piano appartengono alla logica come scienza e costituiscono un approfondimento e una integrazione di quelli già affrontati dalla sintassi logica. Un calcolo può essere interpretato e ciò comporta la determinazione della relazione tra segni e designata. Un sistema semantico permette una migliore teoria della deduzione di quanto non faccia un sistema sintattico, il quale deve prescindere dal concetto di ‘vero’ e da tutti i concetti che ad esso si connettono. La definizione semantica della ‘verità’ non concerne tuttavia nè la natura delle entità designate nè le condizioni che permettono di asserire la verità di un enunciato: come disse Tarski in The semantic conception of truth (1944), essa va d’accordo con qualsiasi concezione epistemologica: ‟possiamo rimanere realisti ingenui, realisti critici o idealisti, empiristi o metafisici secondo ciò ch’eravamo in precedenza. La concezione semantica è completamente neutrale nei confronti di tutte queste questioni”. Essa è semplicemente un accorgimento tecnico per meglio assiomatizzare un sistema linguistico formalizzato. La fertilità della ‘semantica logica’ riguarda quindi i campi della metamatematica, a cui avevano contribuito gli studi sintattici, e della logica formale nel suo complesso; e, sebbene alcuni neopositivisti (e particolarmente il Carnap) abbiano dato in questo campo contributi essenziali, non è tuttavia legittimo considerarli parti integranti della storia del neopositivismo. Sono semplicemente contributi allo sviluppo della logica da parte di studiosi che, in filosofia, erano neopositivisti.

Qualcosa di analogo può valere anche per la ‘semiotica’. Fu il Morris a elaborare con questo nome la teoria del processo in cui qualcosa funziona come un segno e, in particolare, del funzionamento segnico del linguaggio (v. Morris, 1938 e 1946). E la distinzione da lui introdotta delle tre dimensioni del processo semiotico – la ‘sintattica’ (che considera le relazioni formali dei segni tra loro), la ‘semantica’ (che studia il rapporto tra segni e oggetti designati) e la ‘pragmatica’ (che considera la relazione dei segni con gli interpreti) – fu adottata dal Carnap e divenne d’uso comune nelle analisi linguistiche. E quindi frequente l’uso di tale terminologia negli scritti neopositivistici di questo periodo americano; ma è altrettanto frequente anche in coloro che non sono neopositivisti. E sintomatico, del resto, anche il caso del Morris. Egli vede la sua trattazione semiotica come un approfondimento della tematica del neopositivismo mediante il coordinamento di istanze pragmatiste alla wissenschaftliche Weltauffassung. Tuttavia le analisi della semiosi, ch’egli sviluppa in una prospettiva comportamentistica, svelano una concezione metafisica di fondo che si potrebbe dire ‘realistica’: che i segni denotino, per esempio, è provato dal fatto che esiste un mondo, senza di cui non ci sarebbero nè segni, nè conoscenza, nè verità. Tale concezione è assai poco conforme ai canoni di significanza del neopositivismo: sia a quelli (semantici) del primo periodo, sia a quelli (sintattici) del secondo. A meno che si voglia considerare la posizione del Morris come una esplicitazione (sia pur involontaria) di presupposti metafisici sempre già tacitamente presenti nel neopositivismo. In ogni caso, tuttavia, siamo davanti ad un esempio del modo in cui, nella sua cosiddetta terza fase, il neopositivismo, mentre diffonde sempre più ampiamente spunti e idee, va però perdendo la forza e l’acutezza dei suoi temi polemici.

Per non disperdersi, conviene quindi seguire le vicende più recenti del neopositivismo nella prospettiva che gli fu più congeniale: quella della metodologia e dell’analisi logica della scienza. In questo campo sono stati due i temi particolarmente dibattuti: quello della probabilità e dell’induzione, e quello del rapporto tra elementi teorici ed elementi empirici nella conoscenza scientifica. È su questo terreno che si può valutare l’esito del neopositivismo.
Nell’ambito del Wiener Kreis era stato il Waismann a proporre già nel primo volume di ‟Erkenntnis” (Logische Analyse des Wahrscheinlichkeitsbegriffs) una concezione logica della probabilità, prendendo spunto da alcune affermazioni del Wittgenstein nel Tractatus. In tale concezione, la probabilità o grado di conferma di un’asserzione viene determinato rispetto a una classe di altre asserzioni prese come prove, ed è quindi un rapporto puramente logico. Per esempio, qual è la probabilità di una asserzione p (assunta come ipotesi) rispetto all’asserzione ‘p o q’, presa come prova? Date due asserzioni – p, q – gli stati possibili del loro universo linguistico sono: p, q; p, non-q; non-p, q; non-p, non-q. Dato che ‘p o q’ è vera solo nel caso dei primi tre stati indicati (secondo il calcolo proposizionale), mentre p compare solo in due di essi, la probabilità di p rispetto a ‘p o q’ sarà di 2/3. Questa concezione non fu tuttavia, per allora, ulteriormente sviluppata.

All’interno del neopositivismo acquistò invece sempre maggior risonanza la concezione statistica della probabilità, fondata sulla riduzione del concetto di probabilità a quello di frequenza relativa: se, su n osservazioni, un evento d’un certo tipo ha luogo m volte, la sua frequenza relativa è m/m. Tale teoria fu sviluppata particolarmente dal Reichenbach (v., 1935) ed essa parve molto aderente al generale orientamento empiristico del neopositivismo. Non soltanto il Reichenbach trovò nella sua elaborazione del calcolo delle probabilità lo spunto per una comprensione delle logiche polivalenti, ma vide in essa il fondamento di una particolare interpretazione dell’induzione. Noi non sappiamo se le successioni naturali di eventi hanno o non hanno un certo ordine: puntare sulla validità della logica probabilistica che si fonda sulla frequenza relativa di un certo tipo di evento è tuttavia il comportamento più ragionevole, perché dà risultati accettabili (se quell’ordine esiste). Così la scienza, con il suo metodo induttivo, è come una rete che noi gettiamo nella corrente degli eventi: che con essa si prendano i pesci, cioè che i fatti corrispondano alle nostre previsioni, non dipende soltanto dal nostro lavoro.

Nonostante la suggestione che viene da questa concezione reichenbachiana (che mostra il carattere ‘tentativo’ della scienza, che non ha garanzie di certezza), v’era tuttavia in essa qualcosa che non s’adattava perfettamente ai principi antimetafisici e al criterio di significanza neopositivistici. Il presupporre o, almeno, lo scommettere su un limite ideale, verso cui si presume converga una serie statistica, comporta infatti una assunzione metafisica, quasi d’un realismo platonico: che ci sia, cioè, una certa affinità tra ciò che è matematico e ciò che è empirico. Non è certo questo il senso di quell’accordo tra esperienza e logica in nome del quale il neopositivismo s’era costituito: quell’accordo richiedeva infatti che il momento logico-matematico fosse puramente analitico e non dicesse alcunché sul mondo. Così venne ripresa la concezione logica della probabilità: la maggior opera di Carnap nel periodo americano, Logical foundations of probability (1950), è dedicata a questo argomento, con una ripresa e un approfondito sviluppo (anche in numerosi altri scritti) delle tesi già abbozzate dal Waismann. Carnap distingue due significati del termine ‘probabilità’: quello (già illustrato da Waismann) che denota il grado di conferma di un’ipotesi rispetto a una serie di prove e quello (illustrato dal Reichenbach) indicante la frequenza relativa di un evento. Non ha senso chiedersi quale dei due significati sia quello ‘giusto’, poiché entrambi hanno una funzione nella scienza: l’ultimo, per l’uso nella statistica matematica e nelle sue applicazioni; il primo, invece, per la metodologia scientifica e, soprattutto, per la logica induttiva, cioè per una teoria della probabilità logica che fornisca regole per il pensiero induttivo. L’inferimento deduttivo (tipico delle trasformazioni matematiche) parte dalla verità delle premesse per giungere alla verità (necessaria in base a quelle) delle conclusioni; nelle scienze della natura, invece, non si conclude circa la verità necessaria di un’ipotesi sulla base di premesse empiriche: queste permettono soltanto di dare un grado di conferma all’ipotesi stessa. Sia dato, per esempio, l’insieme di premesse empiriche: gli abitanti di Chicago sono tre milioni, due milioni di essi hanno i capelli neri, il signor X è un abitante di Chicago; sulla base di esse il grado di conferma dell’ipotesi ‘il signor X ha i capelli neri’ è uguale a 2/3. La logica induttiva è, quindi, del tutto analitica, come quella deduttiva; e, se mediante essa si riesce a giustificare il procedimento dell’induzione, pare di poter soddisfare appieno le istanze proprie del neopositivismo, poiché in tale procedimento compaiono soltanto asserzioni empiriche (l’insieme delle prove) e asserzioni analitiche di probabilità.

La costruzione di un sistema di logica induttiva è stata appena avviata dal Carnap, che l’ha definita ‟un lavoro per il futuro”; e non molto più che inizi sono anche i recenti lavori di coloro che hanno proseguito il suo tentativo, tra cui J. G. Kemeny, R. Jeffrey e J. Hintikka. Queste sono mere constatazioni di fatto, le quali non escludono la possibilità di sviluppi futuri della logica induttiva paragonabili a quelli della logica deduttiva. V’è, tuttavia, per ciò che riguarda la storia del neopositivismo una considerazione che è opportuno fare. La costruzione di un sistema di logica induttiva richiede la scelta dei suoi assiomi: e a questo proposito la posizione di Carnap è profondamente mutata nel corso dei suoi ultimi vent’anni di vita. Negli anni cinquanta, coerentemente con le tesi neopositivistiche generali, egli respingeva qualsiasi giustificazione del ragionamento induttivo fondato su qualche principio a priori non analitico (come la tesi di una certa uniformità del mondo accettata, per es., dal Russell): un empirismo coerente non può accettar altro che l’appello all’esperienza passata come criterio di valutazione della razionalità di un certo metodo induttivo. Alla fine degli anni sessanta (v. Lakatos, 1968), invece, Carnap opta per una concezione aprioristica della scelta degli assiomi della logica induttiva: è un”intuizione induttiva’ che ci guida nella scelta degli assiomi. Si tratta, senza dubbio, di una intuizione che non ha uno stato epistemologico privilegiato, poiché è fallibile e può essere corretta: nondimeno, l’induzione è giustificata, seppur non in modo definitivo, sulla base dell’intuizione di ciò che appare induttivamente valido. L’intuizione non aveva spazio nell’originaria epistemologia neopositivistica – e neppure nei suoi sviluppi coerenti – poiché era ridotta, empiristicamente, ad abitudine o pregiudizio. Che lo stesso Carnap le faccia nuovamente posto è un chiaro sintomo che il neopositivismo, come movimento filosofico, appartiene ormai alla storia d’un passato sia pur recente.
Conferma di ciò viene anche dai dibattiti sul rapporto tra elementi teorici ed elementi empirici nella conoscenza scientifica, l’altro tema su cui si accentrò l’attività dei neopositivisti nel periodo postbellico. Già s’era avuta una iniziale ‘liberalizzazione’ del rigido criterio empirico di si- gnificanza allorché s’era parlato non di ‘verificabilità’, bensì di ‘confermabilità indiretta’ delle leggi scientifiche ; ma la liberalizzazione diventa radicale allorché risulta l’impossibilità di ridurre i termini teorici del linguaggio scientifico a semplici connessioni di termini osservativi. Ciò comporta una rinuncia al criterio di significanza sia nella forma dell’appello agli Erlebnisse sia nella forma fisicalistica o in quella operazionalistica, perché esso richiederebbe che tutti i termini e le espressioni (come massa, lunghezza, campo magnetico, ecc.) che non significano qualcosa di direttamente osservabile fossero definibili mediante i termini osservativi. Già nel 1952, il berlinese C.G. Hempel, ch’era stato tra i partecipanti ai lavori del Wiener Kreis ed era poi anch’egli emigrato negli Stati Uniti, in Fundamentals of concept formation in empirical science (7° fascicolo del II vol. della International encyclopedia of unified science) mostra come ogni tentativo di definizione di tal tipo lasci, nei termini teorici, qualcosa di non definito e che pur fa parte del loro significato. D’altra parte, la stessa storia della scienza moderna (che pur si incentra sul controllo empirico delle asserzioni) mostra che i principi mediante cui si spiegano e si prevedono fenomeni osservabili non sono stabiliti solo ammassando risultati empirici e generalizzandoli induttivamente. “Guidato dalla propria conoscenza dei dati empirici, lo scienziato deve inventare un insieme di concetti, i costrutti teorici, privi di significato empirico diretto, un sistema di ipotesi formulate nei termini di questi, e una interpretazione per la risultante rete teorica ; e tutto ciò in una maniera che consenta di stabilire tra i dati dell’osservazione diretta connessioni feconde ai fini della spiegazione e della previsione” (v. Hempel, 1952; tr. it., p. 47).

Anche il Carnap – in Philosophical foundations of physics (1966), pubblicato a cura di M. Gardner e riproducente la forma ultima di un suo corso più volte ripetuto – si colloca su posizioni analoghe, negando che alle leggi teoriche si possa giungere con generalizzazioni simili a quelle delle cosiddette leggi empiriche o che i termini teorici possano sorgere come risultati di osservazioni. “Il termine ‘molecola’ non sorgerà mai come risultato di un’osservazione. Per questa ragione nessuna generalizzazione, per quanto spinta, delle osservazioni produrrà mai una teoria dei processi molecolari: una tale teoria deve aver origine in qualche altro modo; essa viene enunciata non come una generalizzazione di fatti, ma come un’ipotesi” (v. Carnap, 1966; tr. it., p. 287). La formulazione delle ipotesi, non spiegabile empiricamente, riapre nella epistemologia il problema dell’a priori non inteso in senso puramente analitico. La prospettiva tipica del neopositivismo viene rivoluzionata: essa si era costituita in polemica con tutte le forme di apriorismo di tipo kantiano o neokantiano, poiché esse sembravano del tutto inadeguate per la comprensione dei nuovi risultati e dei nuovi metodi delle scienze. L’esito a cui giunge l’analisi epistemologica degli stessi neopositivisti e, infine, del tutto diverso. “Non si può mettere il vino nuovo nelle botti vecchie” fu un motto caratteristico del neopositivismo: la botte vecchia, tuttavia, contrariamente alle attese e alle previsioni, risulta in fin dei conti essere proprio quella dell’empirismo radicale.