Introduzione

Impiegato nel corso della storia con significati spesso eterogenei e in riferimento a distinte tradizioni di pensiero, il termine designa genericamente il complesso delle dottrine che, in assenza di certezza, fondano nella probabilità il criterio della conoscenza.

Il probabilismo nel pensiero antico


Con la trattazione aristotelica delle forme di ragionamento non dimostrativo, caratterizzanti la dialettica e la retorica, prese avvio il primo sistematico tentativo di analisi rigorosa della conoscenza ‘probabile‘, non riconducibile alla ferrea contrapposizione platonica tra ἐπιστήμη e δὸξα. Diversamente dalle premesse «vere, prime, immediate, più note della conclusione, anteriori ad essa e cause di essa» (Analitici secondi, I, 2, 71b 21-22) dei sillogismi apodittici, procedenti per via deduttiva dall’universale al particolare, le premesse delle argomentazioni dialettiche e retoriche furono definite da Aristotele come «opinioni che sono in fama» (ἔνδοξα), vale a dire opinioni «condivise da tutti o dai più o dai sapienti, e tra questi o da tutti o dai più o dai più noti e famosi» (Topici, I, 100 b 21-23): né ‘probabili‘ in senso statistico né ‘verosimili‘, le premesse ἔνδοξα costituiscono le opinioni autorevoli, importanti, a cui si deve necessariamente dar credito nell’argomentazione non apodittica e da cui non ci si può discostare. La distinzione tra ἐπιστήμη e δὸξα fu oggetto di profondo riesame nel nuovo orientamento filosofico, di stampo ‘probabilistico‘, assunto dall’Accademia con Arcesilao di Pitane e Carneade nella polemica contro la pretesa stoica del possesso della scienza da parte del saggio, fondata sulla rappresentazione catalettica (κατὰληψις), riproducente fedelmente le caratteristiche dell’oggetto esterno. Negata l’affidabilità del principio stoico della rappresentazione come mezzo di comprensione del reale e criterio assoluto di verità, e sostenuta l’opportunità dell’ἐποχή scettica, Arcesilao indicò nel «ragionevole» (εὔλογον) il criterio pratico di giudizio, mentre Carneade lo identificò con il «persuasivo» o «approvabile» (πίϑανον), discriminando le conoscenze secondo il loro grado di probabilità (semplice rappresentazione persuasiva, dotata della medesima probabilità delle altre rappresentazioni; rappresentazione persuasiva e non contraddetta da alcuna contraria; rappresentazione persuasiva e non contraddetta, oggetto di un esame particolare). Conseguenze sul piano etico del p. accademico – che giungeva a dichiarare ‘probabili‘, privi quindi di ogni pretesa di verità assoluta, i suoi stessi principi – furono il rifiuto dell’ideale stoico di virtù quale adesione incondizionata al fato, e la ricerca di un bene realizzabile di volta in volta come assenza di dolore, piacere, conformità alla natura, ecc.

La nascita del calcolo della probabilità e la logica dell’incerto


Rinnovatasi con la «crisi pirroniana» del tardo Rinascimento e la riscoperta dello scetticismo greco, la riflessione sulla nozione di probabilità e le sue implicazioni teoriche conobbe, a partire dalla metà del Seicento, nuovo impulso soprattutto grazie alla costituzione del calcolo delle probabilità, che venne formandosi come inedito ramo delle matematiche – prefigurato negli studi di L. Pacioli, Cardano, N. Tartaglia e Galilei – nelle ricerche sui giochi d’azzardo, sulla durata probabile della vita e sulla plausibilità delle opinioni, condotte da Pascal, P. Fermat, Chr. Huygens, Leibniz, i fratelli Bernoulli, A. de Moivre, solo per citare i nomi più noti. Il ragionamento sui giochi di sorte e la riflessione sul celebre «pari» (scommessa) di Pascal sulla fede in Dio mostrarono come l’aritmetica aleatoria potesse rientrare in una generale «arte della congettura», modello per l’analisi dei problemi di decisione in condizioni di incertezza. Nella Logique ou l’art de penser di Arnauld e Nicole (1662; trad. it. Logica di Port-Royal) il tipo di argomentazione impiegato da Pascal venne esteso e sintetizzato nel principio secondo cui «per giudicare quel che dobbiamo fare per ottenere un bene o evitare un male, non dobbiamo considerare solo il bene o il male in sé, ma anche la probabilità che si verifichi o meno; e valutare geometricamente il rapporto di queste cose tra di loro». Leibniz indagò la probabilità in rapporto alla costituzione di una logica combinatoria e induttiva, in grado di risolvere le dispute mediante il calcolo. Sulla scia di Pascal, Fermat e Leibniz lo studio della nozione quantitativa di probabilità ricevette nel Settecento un forte impulso, estendendo il campo d’applicazione dell’atteggiamento probabilistico a vari settori delle scienze morali e nella storia naturale, secondo una duplice valenza teorica spesso coesistente nei medesimi autori – probabilità intesa in senso epistemico come grado di credenza, e probabilità intesa in senso empirico come valore di frequenza –, su cui si è acceso un vasto dibattito tutt’ora in corso. Con l’analisi della «probabilità diretta» nell’Ars coniectandi di J. Bernoulli (pubblicata postuma nel 1713), stabilente, nella «legge dei grandi numeri», una connessione numerica tra le probabilità e le frequenze osservate, era definito un metodo di analisi congetturale («Noi definiamo l’arte di congetturare, o stocastica, come quella di valutare il più esattamente possibile le probabilità delle cose, affinché sia sempre possibile, nei nostri giudizi e nelle nostre azioni, orientarci su quella che risulta la scelta migliore, più appropriata, più sicura, più prudente; il che costituisce il solo oggetto della saggezza del filosofo e della prudenza del politico»), fondato su metodi statistici, che trovò importanti sviluppi tanto in Th. Bayes – autore del celebre teorema che porta il suo nome, che consente di valutare la probabilità delle ipotesi statistiche alla luce delle frequenze osservate –, quanto nel metodo induttivistico di Buffon e nella sua analisi del problema della «misura delle cose incerte» (Essai d’arithmétique morale, 1777). L’idea che la probabilità e la descrizione statistica costituissero un importate ausilio nello studio dell’uomo si affermò nell’Ottocento, soprattutto a opera di A. Quételet e F. Galton sulla scia del progetto dell’«aritmetica sociale» elaborata da Condorcet: alla fine del secolo le nuove scienze sociali (teoria economica, sociologia, demografia, geografia, psicologia, criminologia, ecc.) si avvalevano ormai ampiamente dei dati e delle metodologie statistiche nello studio sia delle medie sia della variabilità dei fenomeni attorno a valori medi, approdando allo studio sistematico delle correlazioni tra fenomeni osservabili e alla loro descrizione quantitativa.

Probabilismo e determinismo


Nella teoria classica di Laplace la probabilità è analizzata come il rapporto dei casi favorevoli su tutti i casi equipossibili, divenendo oggetto di una trattazione matematica e filosofica che ebbe enorme influenza nella sistematizzazione dell’immagine deterministica del meccanicismo classico. Sottoposta a un processo di assiomatizzazione della sua struttura formale, nella Théorie analytique des probabilités (1812) e nell’Essai philosophique sur les probabilités (1814) la probabilità fu definita da Laplace in relazione all’incapacità della conoscenza umana di cogliere il complesso delle concatenazioni degli stati causali dell’Universo, rigorosamente determinati dai precedenti, in linea di principio conoscibili in tutti i particolari da un’intelligenza superiore, che sarebbe perfettamente in grado di cogliere nei minimi dettagli tutto il passato e tutto il futuro di ogni singola particella materiale. Di qui l’elezione della probabilità a strumento indispensabile d’analisi del reale come fondamento dei metodi più importanti d’acquisizione delle conoscenze, quali l’induzione e l’analogia, e delle approssimazioni nelle spiegazioni dei fenomeni. Alla codificazione delle tecniche di previsione del comportamento delle variabili nelle modificazioni controllate dei dati sperimentali si dedicarono i più importanti teorici ottocenteschi dell’induzione, da Whewell a Stuart Mill e C. Bernard. Lo sviluppo di considerazioni probabilistiche per il riconoscimento nei fenomeni fisici più complessi della presenza di un ordine governato da un numero limitato di cause e leggi generali ebbe impulso, nella seconda metà dell’Ottocento, con l’analisi meccanica delle collisioni tra coppie di particelle elaborata da J.C. Maxwell nel campo della teoria dinamica del calore, con gli studi di Poincaré sui fenomeni caotici legati alle perturbazioni dei moti in meccanica celeste, idrodinamica, metereologia e, soprattutto, con le ricerche sull’equilibrio termico dei gas di L. Boltzmann. Questi, nel tentativo di conciliare meccanicismo ed energetismo, si sforzò d’interpretare le prime due leggi della termodinamica in termini di modelli molecolari e di spiegare l’entropia attraverso le leggi del calcolo statistico e delle probabilità, risolvendo la contraddizione tra reversibilità delle leggi meccaniche e irreversibilità termodinamica mediante l’elaborazione di una visione probabilistica della natura. Il 20° sec. ha conosciuto applicazioni sempre più ampie e profonde dei metodi statistici e dell’approccio probabilistico alla descrizione dei fenomeni, tanto nelle scienze umane quanto in quelle naturali. La formulazione della meccanica quantistica ha decretato l’impossibilità a livello subatomico di predire deterministicamente un fenomeno o i risultati di un evento: il principio d’indeterminazione di Heisenberg (➔), stabilendo l’impossibilità di misurare con esattezza simultaneamente la posizione e la velocità iniziali di una particella, e la conseguente necessità d’impiego in microfisica di previsioni di carattere statistico, aventi per oggetto non la comparsa di un evento, ma il grado di probabilità che esso abbia luogo, ha condotto a una profonda revisione critica dei concetti di causalità e misurabilità su cui si fondava l’impianto della fisica classica. La nuova meccanica quantistica ha suscitato un vasto dibattito scientifico-filosofico: il dualismo onda-corpuscolo da essa introdotto, e la tesi dell’impossibilità di principio di una descrizione deterministica del mondo atomico, sono stati rifiutati da alcuni dei massimi fisici del Novecento, in partic. Einstein, Planck e Schrödinger, i quali hanno giudicato le teorie di Bohr e di Heisenberg provvisorie e incomplete, efficaci soltanto sul piano della descrizione matematica dei processi quantistici.
Similari
Appunti sul Probabilismo
175% Probabilismo
Il probabilismo nel pensiero antico Con la trattazione aristotelica delle forme di ragionamento non dimostrativo, caratterizzanti la dialettica e la retorica, prese avvio il primo sistematico tentativo di analisi rigorosa…
Discorso e verità
90% Foucault, Michel
Chi è colui che può «dire la verità»? E quali rischi corre costui? Quanto gli può costare il suo «parlar chiaro»? E ancora: qual è il rapporto tra la verità e il potere? Deve coincidere, il dire la verità, con l’esercizio…
Il neopositivismo
86% Neopositivismo
Come tutte le etichette filosofiche, anche quella di ‘neopositivismo’ (o, come pure si dice, di ‘positivismo logico’ o ’empirismo logico’) è ambigua. Sotto di essa si spa…
Percorso della filosofia
67% Filosofia
Determinare con rigore il significato, i compiti, i campi di indagine, o addirittura le probabilità di sopravvivenza della filosofia in questo secolo, è particolarmente arduo, …
La nozione di razionalità
59% Razionalità
Il concetto di razionalità è, assieme a quello di giustizia sociale, uno dei concetti normativi fondamentali impiegati nelle scienze sociali. Intuitivamente, essere razionali sig…