Cerca nel blog

giovedì 29 gennaio 2015

Filosofia della scienza: la concezione ontica della spiegazione e l'avvio dell'unificazionismo

Teoria disposizionale di Coffa
Secondo Coffa il problema dell'ambiguità è il problema della classe di riferimento che sorge nella visione frequentista della probabilità riferita ai casi singoli. Considerando la probabilità come propensità alllora si tratterebbe di un attributo fisico di eventi.
Per tutte le spiegazioni Coffa propone di inserire la "clausola delle condizioni limite"; nelle spiegazioni induttive la clausola fa quello che fa RMS per Hempel e quello che fa l'omogeneità di Salmon.
Appare così la
concezione ontica per cui i) la spiegazione è là fuori nel mondo ed è composta dalle condizioni (fatti) che hanno permesso l'avveramento di un certo altro fatto o ii) la spiegazione è un testo di enunciati che descrivono dei fatti.
La propensità si basa sul concetto di "sistema probabilistico" (
chanche setup). La propensità non reggerebbe la probabilità negativa.
Spiegazione ed evidenza
Rescher (1958) sostiene l'anti-simmetria di spiegazione e previsione. Ha una posizione epistemica (spiegazione=argomento) e esistono argomenti esplicativi ed argomenti predittivi la cui distinzione è il grado di probabilità della conclusione. Ciò è un fatto di natura e non una verità logica.
Rescher (1963) introduce la nozione di sistema a stati discreti e dimostra come sia possibile costruire sistemi in cui sia possibile predire e retrodire e altri in cui non è possibile né l'uno né l'altro. Secondo l'opinione ricevuta le premesse di D-N sono evidenze e Rescher introduce tre tipi di evidenze: a) evidenza di presupposizione: rende l'ipotesi più probabile della negazione; b) evidenza di sostegno: forma di rilevanza che rende l'ipotesi più probabile quando è disponibile; c) evidenza di conferma: quando valgono le due evidenze per l'ipotesi.
Per dire che un enunciato è una legge non solo deve reggere i modali e sostenere i controfattuali ma deve andare oltre l'evidenza empirica, con ciò vuol dire che le leggi sono generalizzazioni su base epistemica, dipende cioè dalla mente.
La spiegazione delle leggi
Nella famosa "nota 33" dello storico articolo di Hempel e Oppenheim è stato sollevato l'imbarazzo per non saper produrre un D-N per leggi. Non sarebbe stato possibile distinguere da una derivazione di leggi più generali e una legge irrilevante.
Friedman (1974) sostiene che la scienza spiega attraverso unificazione: la teoria cinetica spiega il comportamento di pianeti soddisfano le leggi di Keplero che quelle di Galielo. La scienza aumenta la nostra comprensione del mondo riducendo il numero di fenomeni indipendenti che dobbiamo accettare come fatti bruti. La nozione di "accettazione" è centra nella teoria di Friedman. Esiste un insieme K di enunciati che sono leggi accettate dalla comunità scientifica ed è chiuso deduttivamente, perciò ogni enunciato legisimile dovrà essere accettabile indipendentemente dagli altri. Un legisimile è indipendente da un altro se non ci sono motivi sufficienti per cui il primo ci farebbe accettare il secondo.
Per enumerare i legisimili propone la "partizione" di un enunciato tali che i Z enunciati sono equivalenti ad S ma ogni enunciato "k-atomico" di S è accettabile indipendentemente.
L'articolo di Friedman è stato severamente criticato da Salmon e Kitcher e viene rigettata la tesi che la spiegazione è una unificazione e che in generale l'unificazione sia l'abiettivo della scienza, ma l'unficazione porta ad una maggiore comprensione scientifica del mondo. Ora il quadrante nomotetico di D-N ha un candidato.

È vero che le spiegazioni sono argomenti?
Jeffrey nel 1969 spiega perché le spiegazioni statistiche – fatta eccezione per alcuni casi limite – non sono argomenti. Salmon è della stessa idea e dopo un periodo estremista di negazione di identità tra spiegazione ed argomento giunge alla tesi per cui alcune spiegazioni non sono argomenti.
Nella spiegazione deduttiva l'aggiunta nelle premesse di argomenti irrilevanti non pregiudica la conclusione, mentre ciò non accade per le spiegazioni statistiche in cui una premessa irrilevante conduce a conclusioni contradditorie (RMS ed evidenza totale doveva impedire il problema).
Salmon (1977) propone domande per imbarazzare i sostenitori dell'opinione ricevuta:
a) perché una spiegazione D-N è valida anche se introduce premesse irrilevanti, ma I-S non lo permette?
b) è possibile spiegare eventi poco probabili (indeterminismo)?
c) perché le spiegazioni devono essere soggette ad assimetria temporale mentre gli argomenti no?
Salmon conclude che la causalità è un concetto centrale nella spiegazione.


Sfida della causalità
Hume ha mostrato come il legame causale sia per priorità o per contiguità o per congiunzione costante. Ma quali sono le congiunzioni tra cause intermedie ed effetti?
La relatività sostiene che c è la velocità massima in questo universo, ma le ombre possono superare c e quindi non dobbiamo reputarle cose?
La luce proiettata su un muro può superare arbitrariamente c. Se si potesse inviare un messaggio superando c il 'principio di simultaneità della relatività' sarebbe violato.
Salmon propone la differenza tra 'processi causali' e 'pseudo-processi'. La differenza tra evento e processo starebbe nella durata cronologica: l'esplosione di una supernova è un evento, il viaggio di un neutrino invece un processo. Perciò un processo o uno pseudo-processo saranno sempre uniformi e continui. La differenza tra i due è nella capacità di trasmettere informazione o nella propagazione del marchio. Solo i processi costituiscono causa, questi propagano la loro struttura.
Salmon sostiene la teoria in-in di Russel che sarebbe la soluzione al paradosso di Zenone per cui il moto sarebbe una relazione tra punti spaziali e attimi temporali: muoversi è occupare posizioni diversi in momenti temporali successivi.

Spiegazioni teleologiche e funzionali
La filosofia della biologia si sviluppa dopo un lungo periodo di silenzio. La spiegazione funzionale torna alla ribalta nella riflessione filosofica.
Wright (1972) sviluppa una teoria dell'eziologia della conseguenza che permette di dare una connotazione meccanico-causale alle spiegazioni funzionali considerando la funzione come trattenimento delle conseguenze che quella funzione ha avuto.
Bigelow e Pargetter (1987) hanno un'orientamento verso la propensità e la consecutio cronologica maggiore rispetto a Wright per cui un ente ha una certa disposizione a fare x. La differenza principale tra Wright e Bigelow & Pargetter è che per i secondi una funzione è tale sin dal primo momento della sua comparsa.
Nagel (1977) contesta gli equivalenti funzionali di Hempel, date le circostanze ideografiche solo quella funzione è necessaria e sufficiente al sistema. Per Wright l'attribuzione funzionale non è altro che la risposta alla domanda perché è lì e siano legittime perciò le spiegazioni funzionali.

Filosofia della scienza: la spiegazione R-S

Modello di rilevanza statistica S-R
Hempel nel 1968 apporta modifiche tecniche a RMS e crea RMS*, con questo ritira la condizione di alta probabilità per I-S.
Greeno (1970) produce una teoria sulla spiegazione scientifica basata sull
'informatività, quantitativamente misurabile (quantità di informazione trasmessa).
Il modello I-S viene accolto con i) strategie di difesa; ii) ricerca di alternative; iii) refutazione di I-S.
Salmon nel tentativo di creare un modello alternativo a I-S si accorge che per un modello basato sulla rilevanza statistiva occorrono una probabilità iniziale ed una finale, non un solo valore r.
Il modello di Salmon necessita di alcune definizioni:
a) una
partizione di una classe F è una classe di sottoinsiemi di F mutualmente escludentesi ed esautstivi.
b) ogni sottoinsieme è una
cella della partizione F. Una partizione è rilevante per un attributo G se la probabilità di G assume un valore diverso per ogni cella della partizione.
c) una classe F è
omogena rispetto a G se non esistono partizioni rilevanti di essa.
d) una classe F è
epistemicamente omogenea se non sappiamo definire partizioni rilevanti di essa.
e) una classe F è
oggettivamente omogenea se in modo indipendente dalle nostre conoscenze è impossibile definire una partizione rilevante di G.
f) una
partizione rilevante omogenea è una partezione rilevante in cui ogni cella è omogenea, anche questa si distinguono tra epistemiche e oggettive.
Le proprietà di R-S sono:
a) una volta stabilita una partizione rilevante oggettivamente omogenea per una particolare classe di riferimento sono stati presi in considerazione tutti i fattori rilevanti, cioè sono state create tutte le partizioni rilevanti.
b) una partizione rilevante ammette solo fattori rilevanti, poiché ogni cella ha una probabilità diversa di G.
L'esempio è quello del furto d'auto da parte di un adolescente americano.
Il modello S-R prevede una mappa probabilistica dalla quale dedurre dal modo che segue: "perché A ha l'attributo G? Perché A appartiene a X".
Relazione di adombramento (screening off)
Esempio temporale S, pressione A e barometro B: B è rilevante rispetto ad S in presenza di A, A mette in ombra B (e non rientra nella spiegazione).
Per I-S la spiegazione è un argomento induttivo che conferisce ad E alta probabilità.
Per R-S la spiegazione di E è un assemblamento di fatti statisticamente rilevanti rispetto a ciò che deve essere spiegato, indipendentemente dal grado di probabilità di E.
Entrambi i modelli rientrano nell'etichetta di modello a legge di copertura.


Problemi legati alla "specificità massimale"
Hempel per introdurre RMS e far fronte agli inconvenienti di I-S, introduce la "specificità massimale" e il contesto epistemico. Coffa nel 1974 espone le difficoltà sull'ambiguità di I-S e chiama P(G|F)=r; Fb=[r];Gb modello ingenuo di I-S. Secondo Coffa il problema dell'ambiguità di risolve in modo semplice: dato che la spiegazioni spiegano ciò che accade, la spiegazione induttiva corretta è quella la cui conclusione si avvera. Hempel, secondo Coffa, non voleva risolvere il problema dell'incoerenza induttiva.
Il problema in realtà ha a che fare con la classe di riferimento nato nell'approccio frequentista della probabilità (Venn, Reichebach). Assegnare una probabilità ad un evento singolo significa associare la probabilità di classi di riferimento omogenee.
Salmon e Coffa tentano in modo diverso di evitare la relativizzazione al contesto epistemico delle spiegazioni statistiche. Coffa suddivide tra concetti epistemici e non-epistemici. Hempel conclude che il tipo di "epistemico" che è I-S non è lo stesso di D-N, ma piuttosto è non confermativo: non esiste una spiegazione induttiva vera. Non ci sono cose del mondo che spiegano induttivamente fatti. Coffa suggerisce di considerare la probabilità propensità per evitare l'impasse e fa l'esempio del filosofo texano.
Per un determinista la spiegazione I-S non sarebbe una spiegazione o una spiegazione deduttiva basato su un entimema, non avrebbe nemmeno senso "classe di riferimento omogenea" perché allora si parlerebbe di legge. Hempel ritiene che classe di riferimento omogenea non sia nemmeno intelligibile.
In P(X|Y) X è detto classe di riferimento e Y classe d'attributo; la classe di riferimento è detta massimamente specifica per l'attributo G se la classe conoscenze K non permetta una partizione rilevante di F. Salmon aggiunge una clausola che limita temporalmente I-S al precedere di E, ma Hempel obietterebbe.
Dunque per il determinismo I-S non esiste, mentre per l'indeterminismo esistono spiegazioni irriducibilmente statistiche.

Filosofia della scienza: la spiegazione statistica

La spiegazione statistica
Rinunciare alla statistica e disdegnare premessi sufficienti ma non necessarie, secondo
Rescher (1962) vorrebbe dire eliminare una buona fetta della letteratura scientifica. Rescher introduce la stochastic revolution della scienza. Hempel in "Deductive-nomological versus statistical explanation" si concentra sull'ambiguità della spiegazione statistica e propone due modelli.
Hempel distingue le
leggi statistiche – generalizzazioni fattuali espresse come probabilità – e le leggi di probabilità – assiomi o teoremi della teoria della probabilità. Non riesce nemmeno in questa occasione a definire 'legge di natura' poiché il linguaggio formale utilizzato non conteneva espressioni nemeriche per rappresentare le leggi statistiche. Inoltre si hanno almeno due interpretazioni di 'probabilità' in quel periodo: quella propensista per cui "F ha la propensità P ad aessere G" e quella frequentista "Un certo x di F sono anche G".
Il
modello I-S o induttivo statistico, dove con 'induttivo' non si intende che l'inferenza che porta a una spiegazione di questo tipo sia l'induzione ma che induttivi siano gli argomenti legisimili, include necessariamente una legge statistica e non è possibile dedurre l'explanandum dall'explanans. Hempel perciò richiede "alta probabilità induttiva" del legisimile.
La forma di I-S è la seguente
P(G|F)=r       legge statistica dove r è il grado di probabilità che deve essere prossimo ad 1
Fb
=====[r]
Gb

L'esempio è quello dell'infezione da streptococchi e la penicillina: Johns guarisce velocemente da una infezione da streptococchi se trattato con penicillina. Osservando lo forma di I-S si traduce come "la probabilità di guarire G con infezione da streptococchi F e con cura di penicillina H è r"; l'infezione di Johns è stata trattata con penicillina; dunque Johns può guarire con probabilità r".
Le cose si complicano se il ceppo è resistente alla penicillina e avviene così la cosiddetta ambiguità di I-S. Nella logica deduttiva accade che le conclusioni non si possono contraddire, mentre nella logica induttiva forme di premesse compatibili possono portare a conclusioni tra lo contraddittorie.
Si assiste così al principio di indebolimento della logica deduttiva: aggiungendo ulteriori premesse ad argomenti deduttivi validi gli argomenti deduttivi rimangono validi. Nella teoria della probabilità non esiste niente di simile: un argomento induttivo valido può avere un basso grado di conferma dopo avere aggiunto ulteriori premesse.
La richiesta di Hempel e degli studiosi di logica induttiva è l'evidenza totale. Tale requisito significa che allo stato attuale della conoscenza non è possibile aggiungere nessuna evidenza ulteriore.


Il requisito di specificità massimale e la relazione di rilevanza
Hempel per I-S propone il requisito di specificità massimale (RMS) per cui devono essere soddisfatte le seguenti condizioni:
se s·k → b e b appartiene a F1 e F1 è una sottoclasse di F allora s·k deve implicare un enunciato che specifica la probabilità di G in F1.
P(G|F1)=r1 dunque r=r1 a meno che P(G|F1) non sia un teorema della teoria della probabilità.
Il concetto di I-S è
relativo alla situazione epistemica presentata da una classe di conoscenze K di enunciati accettabili. Nella spiegazione D-N non vi è niente di simile in quanto RMS è automaticamente soddisfatto.
Le condizioni per avere una spiegazione perciò cambiano:
1.
La spiegazione è un argomento che ha forma logica corretta
2.
L'explanans contiene almeno una legge
3.
La legge deve contenere elementi empirici
4.
Gli enunciati dell'explanans devono essere veri
5.
RMS
Come visto precedentemente da 1 a 3 abbiamo le condizioni logiche che sono per sé una spiegazione potenziale; la quarta condizione come detto è empirica e fornisce una spiegazione reale assieme alla condizione 5 che però è la
condizione di rilevanza.
Controesempi mostrati sono quelli della
vitamina C e della terapia psicologica. In questi esempi viene notato come spiegazioni I-S possano essere inefficaci nello spiegare se viene richiesta solo alta probabilità induttiva, per cui Hempel propone la rilevanza statistica.

Filosofia della scienza: la nascita della pragmatica della spiegazione

La critica di Scriven e il secondo Wittgenstein: la nascita della pragmatica
Scriven nel 1958 critica il modello D-N in un articolo dove mostra come tutte le premesse e gli assunti del modello siano deboli e contestabili. In genere si registrano tre atteggiamenti rispetto al modello D-N: a) positivi: tesi a perfezionare le carenze tecniche; b) costruttivi: condividono la linea del modello D-N e cercano di perfezionare l'opinione ricevuta; c) profende obiezioni, specie rivolte all'empirismo logico. Scriven appartiene a questa terza corrente.
Nel frattempo
Nagel (1961) pubblica il monumentale "The structure of science" dove mostra i modelli esplicativi di diverse discipline scientifiche e l'anno dopo Hempel pubblica l'articolo che inizia lo studio delle spiegazioni probabilistiche. Gli atenei anglofoni aprono dipartimenti di filosofia della scienza.
Se l'empirismo logico inizia con il
Tracatus di Wittengstein, la seconda importante indagine nel campo della filosofia della spiegazione nasce con le Ricerche filosofiche del 1963. Le tesi contenute nel volume influenzano Oxford e Cambridge e si instaura un conflitto tra filosofi del linguaggio formale o artificiale (filosofia analitica ed empirismo logico) e filosofi del linguaggio ordinario. Stante la nuova linea presa Wittgenstein non è più sufficiente la a) sintassi – relazione tra simboli; b) semantica – relazioni tra simboli e oggetti (designazione, significato, verità); è necessaria anche c) pragmatica – uso dei simboli da parte degli agenti della comunicazione (contesto, scopo, presupposizioni). L'empirismo logico si rifà agli studi di (a) e (b), così nasce la pragmatica della spiegazione e si assumono obiezioni di natura linguistica all'opinione ricevuta.
Hempel ritiene corretta l'impostazione pragmatista, ma sostiene che una spiegazione parziale in cui sono ammesse le ovvietà, se estesa, conterrebbe almeno una legge di copertura. Scriven sostiene che le spiegazioni ideografiche composte solo di fatti particolari (condizioni C) all'explanans sono soddisfacenti e la legge non spiega ma giustifica la spiegazione.

L'approccio linguistico di Bromberger
Bromberger pubblica nel 1962 "An approach to explanation" e propone un'analisi linguistica della spiegazione. La forma linguistica da lui individuata è "AS e BW" dove a A e B sono persone, S per forma temporale di 'spiegare' e W per domanda indiretta.
Stante la classificazione di Vendler 'spiegare' appartiene alle forme che esprimono compimento – le altre sono attività, stato e raggiungimento.
"A ha spiegato a B perché avremmo potuto evitare la seconda guerra mondiale", quando dobbiamo enunciare lo 'spiegare' questo appare sempre in una forma compiuta nel passato. W (come, quando, dove, quanto, chi, perché) predispone la risposta (effetto "filtro"), ma per avere una spiegazione deve darsi:
i)
predicamento-p: S è in predicamento-p rispetto alla domanda Q se Q ammette una risposta esatta, ma A non riesce a pensare ad obiezioni decisive che possano confutare la risposta.
ii)
predicamento-b: S è in predicamento-b rispetto a Q se la domanda ammette una risposta esatta, ma va oltre a quello che B può concepire e S è incomponibile.
Dopo aver generato uno schema pragmatico della spiegazione lo schema diventa "AS e BX" dove X sta per entità linguistica diversa dalla domanda. Bromberger assume che b) il tutore è una persona razionale che conosce la risposta; d) il tutotre esprime fatti propedeutici al capire la spiegazione da parte del pupillo; e) il tutore rimuove dal predicamento il pupillo.
Secondo Salmon l'approccio di Bromberger può essere pre-hempeliano. Nel 1966 Bromberger si chiede esplicitamente che cos'è una risposta ad una domanda-perché che richiede una spiegazione. Bromberger rifiuta la necessità di leggi di copertura e illustra come la risposta può annullare la domanda (vedere anche Van Fraassen) e analizza le leggi generali e le loro eccezioni.
1) legge generale – legisimile;
2) legge generale abnormica – congiunzione di leggi abnormiche speciali;
3) legge abnormica speciale – legisimile con clausola iniziale "a meno che";
4) predicamento antinomico di una legge abnormica;
5) predicamento antinomico di una legge abnormica speciale;
6) completamento di una regola generale da parte di una legge abnormica.
Per Bromberger la spiegazione è una richiesta di generalizzazione di una eccezione.

Controesempi a D-N

In primo luogo rifiutare che le condizioni antecedenti nell'explanans siano antecedenti solo logicamente e non temporalmente è visto con sospetto da molti filosofi che vorrebbero questo requisito.
L'esempio è quello dell'eclisse, per cui date le leggi di Newton L, la posizione di Terra, Sole e Luna C queste possono essere precedenti o successive temporalmente all'eclisse. Salmon ritiene che una spiegazione di questo tipo è insoddisfacente, ma Hempel nega nuovamente la necessità di vincoli cronologici.
Ci si aspetta che la spiegazione riveli la causa di E, ma Hempel sostiene che D-N permette spiegazioni causali, ma non tutte le spiegazioni lo sono (indeterminismo).
Gli esempi sono quello della bandiera, per la quale la lunghezza dell'ombra non spiega la lunghezza dell'asta ma semmai ci aspettiamo che sia il contrario con un nesso causale; l'esempio del barometro, per cui ci si aspetta che l'abbassamento delle lancette del barometro causino/spieghino il temporale, ma il cambiamento atmosferico spiega entrambi i fenomeni; l'esempio della luna e delle maree, per i marinai che non conoscevano le leggi di Newton era evidente che la posizione della luna influisce sull'altezza delle maree, ma non potevano spiegarlo prima di aver compreso il legame causale.
Il terzo punto contestato è quello della simmetria tra spiegazione e previsione. Poiché D-N fa uso di leggi, il criterio con cui si deduce l'evento è l'aspettabilità nomica. Non imponendo vincoli temporali D-N permette di predire e retrodire e spiegare anche se C e E sono simultanei. Hempel è stato molto chiaro rispetto alla sua posizione: i) ogni spiegazione D-N è una previsione ed ii) ogni previsione non statistica è una spiegazione. Secondo Salmon questa tesi può essere intesa in modo ristretto (valevole solo per D-N) ed ampio (per D-N e I-S). Scriven (1959) attacca la tesi (i) con l'argomento della biologia evoluzionistica ma vale solo per la tesi ampia che include la spiegazione statistico-induttiva.
L'esempio è quello della sifilide e paresi: la paresi è una fase terziaria della sifilide se la primaria e la secondaria non sono trattate. Solo il 25% dei sifilitici va incontro alla paresi. Si deve prevedere la paresi?
Sono inoltre note nella scienza previsioni accettate senza legge di copertura ma solo condizioni antecedenti.
Il problema attaccato in D-N è l'essere carente nelle condizioni della rilevanza esplicativa. L'esempio è quello del sale stregato, per cui viene messo del sale in acqua e recitata una formula magica, il sale si scioglie; l'esempio della pillola anticoncezionale: John prende la pillola della moglie e non rimane gravido dopo un rapporto sessuale.

Filosofia della scienza: ricognizione sulla spiegazione nelle scienze umane

La spiegazione in storia
Hempel (1942) in "The function of general laws in history" si chiede se la storiografia ha veramente bisogno di leggi generali. La storia è perciò una scienza? Con "storia" Hempel intende anche parte delle conoscenze di cosmologia, geologia, biologia evoluzionistica ed archeologia.
Da questi spunti nacque negli anni Cinquanto la Nuova Archeologia (Binford) su stimolo di L. White che aspira ad una archeologia scientifica.

Teleologia e spiegazione funzionale
Le scienze biologiche e del comportamento fanno uso di fini e di scopi. Questo non ha più cittadinanza nella scienza per come pensato dal positivismo logico. Braithwaite (1953) non ritiene problematiche le spiegazioni teleologiche di azioni consce, ma è sempre possibile riferirsi comunque a cause antecedenti il comportamento o processo. Nella letteratura sulle azioni dirette ad un fine emergono le proprietà che le contraddistinguono: plasticità – più mezzi per lo stesso fine – e varianza – più condizioni iniziali per lo stesso fine.
Gli scienziati che usano elementi teleologici hanno due oggetti e modelli diversi:
1) azioni dirette ad uno scopo (es. Comportamento della torpedine);
2) azioni regolate e auto-regolate (es. Caldaia con termostato).
Braithwaite sostiene che le spiegazioni teleologiche sono abbreviazioni di spiegazioni più articolate che si riferiscono a nessi causali strictu sensuNagel sostiene che ogni spiegazione teleologica può essere trasformata in una non-teleologica, ma perderebbe un quid.
Hempel (1959) in "The logic of functional analysis" sottintende che il ricorso a funzioni non sottende ad una spiegazione. Sostiene che si può sostituire "funzione" con "effetto", ma non tutti gli effetti sono funzioni. Ad esempio il cuore cge batte ha la funzione/effetto di pompare il sangue ma ha anche l'effetto di fare un suono), le funzioni sono circoscritte perciò ad un sistema.
Il modello che Hempel ha in mente è il (2), autoregolazione, che prevede un sistema S, un elemento I, condizioni interne Ci ed esterne Ce, in generale C, dove il tratto I soddisfa un requisito di S.
Sorge però il problema degli equivalenti funzionali per cui un dato I è sufficiente allo stato normale N del sistema S, ma non è necessario in quanto un I diverso potrebbe avere lo stesso effetto.
Per Hempel le spiegazioni funzionali vanno in senso opposto alle spiegazioni scientifiche, ma Nagel (1961) mostra come il problema degli equivalenti funzionali può essere superato in biologia facendo tornare la spiegazione funzionale nella opinione ricevuta. Infatti l'organismo S in un ambiente A non è disponibile altro che I nelle circostanze C. Salmon sostiene che non dimostrato ancora come risolvere in generale il problema.

Il modello narrativo o genetico e la spiegazione eziologica
Salmon suggerisce che nelle discipline storiche, dove si sostiene che esiste un modello narrativo o genetico della spiegazione che consiste nel descrivere la storia antecedente ad E, non si tratti in realtà di una spiegazione perché non fa riferimento a cause. Per la storia umana e la biologia occorre fare ricorso alla spiegazione eziologica che incorpora sua la narrativo-genetica che funzionale. Importante in questo contesto è l'articolo di Wright.

1Forma normale congiuntiva in logica si riferisce ad una formula equivalente a quella data che sia una congiunzione laddove i congiunti sono disgiunzioni di variabili enunciative o delle loro negazioni.

Filosofia della scienza: il modello nomologico-deduttivo D-N

Durante i primi quarant'anni del XX secolo sono apparse delle critiche neoempiriste alle spiegazioni scientifiche delle scienze umane, soprattutto per quel che riguarda la storiografia. Braithwaite anticipa la tesi unificazionista e vengono analizzate le cosiddette spiegazioni teleologico-funzionali di diverse discipline, come antropologia, sociologia e biologia.
Nel 1948 viene pubblicato "Studies in the logic of explanation" di Hempel e Oppenheim e la spiegazione diventa uno dei motivi principali dell'epistemologia.
Le condizioni generali di adeguatezza della spiegazione sono:

1. logiche
a) la spiegazione deve essere un argomento deduttivo valido
b) l'explanans deve contenere almeno una legge generale
c) l'explanans deve avere un contenuto empirico
2. empiriche
a) gli enunciati dell'explanans devono essere veri

La forma logica è la seguente:

Explanans

C1, C2, ..., CN condizioni antecedenti
L1, L2, ..., LN leggi generali
________________________
Explanandum E


Leggi e legisimili
Data la centralità della legge generale nel modello Hemple e Oppnheim hanno iniziato un'esplicazione del concetto di legge ed hanno introdotto il concetto di enunciato legisimile che hanno mutuato da Nelson Goodman (1947). Gli enunciati di legge, o nomici, devono essere veri mentre quelli legisimili possono essere falsi. Hempel poi distinto tra legisimili fondamentali e derivati. Le proprietà dei legisimili sono:
a) hanno forma universale;
b) hanno un campo d'azione illimitato;
c) nessun termine è riferito a un ente particolari;
d) contengono predicati puramente qualitativi.

Leggi e generalizzazioni accidentali
Una distinzione fondamentale che permette di discriminare tra enunciati nomici e generalizzazioni accidentali sono:
a) sostegno di controfattuali;
b) portata modale.
Gli enunciati nomici sostengono i controfattuali e hanno portata modale, le generalizzazioni accidentali non possono.

Esempi di enunciati legisimili:
I) nessun segnale supera la velocità della luce;
II) nessuna sfera d'acciaio ha una massa superiore a 100 000 kg;
III) nessuna sfera di uranio aricchito ha una massa maggiore a 100 000 kg
Esiste una differenza oggettiva tra I, II e III. Questa differenza è solamente psicologica in base allo stato epistemico o rispettano una logica genuinamente diversa?

La struttura dei linguaggi formaliL'atomo dei linguaggi formali è appunto l'enunciato atomico, il quale è un enunciato che non contiene quantificatori, connettivi o variabili. È un predicato verbale che enuncia una relazione oggettiva. L'enunciato basico è un enunciato atomico o la sua negazione. L'enunciato singolare o molecolare può contenere connettivi e l'enunciato generalizzato contiene quantificatori mentre l'enunciato universale contiene quantificatori universali.
Hempel e Oppenheim distinguono tra enunciato
legisimile fondamentale che è un enunciato universale; legisimile derivato che è un enunciato universale derivato da un fondamentale e infine legge che è un legisimile fondamentale o derivato vero. A dire la verità nell'articolo i due si riferiscono a 'teorie' e non a 'leggi', Salmon nota inoltre che non specificano nemmeno la necessità di universali dato che nella spiegazione scientifica si accettano anche enunciati generalizzati come leggi.

Spiegazioni potenziali e reali
<T, C> è
explanans potenziale di E (dove E è singolare) solo se:
1) T è essenzialmente generale e C singolare;
2) E è derivabile dalla congiunzione di T con C ma non solo da C alla spiegazione scientifica, sarebbe possibile spiegare E da un qualsiasi enunciato legisimile, per cui:
3) T è compatibile con almeno un insieme di enunciati basici da cui è possibile derivare C ma non E.

<T, C> è un
explanans di E (dove E è singolare) se e solo se:
1) <T, C> è un explanans potenziale di E;
2) T è una teoria e C è vero.

Eberle, Kaplan e Montague (1961) sostengono che è necessario ma non sufficiente poiché è ancora possibile derivare da un <T, C> vero ma irrilevante. La soluzione di Kim è di aggiungere un quarto requisito all'esplicazione di explanans potenziale:
4) E non dede implicare nessuno dei congiunti che appaiono in C quando C è posto in
forma normale congiuntiva1.

Questioni aperte sull'opinione ricevuta
1. Come è fatto un D-N per la spiegazione di leggi?
2. Cos'è un predicato puramente qualitativo?
3. Cos'è una legge di natura nel modello D-N?
4. Tutte le spiegazioni sono argomenti?
5. Tutte le spiegazioni necessitano di leggi di copertura?
6. È vera la simmetria tra spiegazione e predizione?
7. Che ruolo ha la causalità nel modello D-N?
8. L'explanans deve sempre essere vero?
9. Esistono modelli semi-formali della spiegazione?

Filosofia della scienza: introduzione al problema della spiegazione scientifica

Con conoscenza scientifica si intende sia sapere-che o descrizione sia sapere-perché o spiegazione. Già per Aristotele le spiegazioni scientifiche sono argomenti deduttivi, ma non tutti gli argomenti deduttivi sono spiegazioni. Fino al 1948 la teoria aristotelica era l'opinione ricevuta, poi nel pensiero neoempirico è riapparso il problema e discusso da Hempel e Oppenheim (filosofi della scuola di Berlino perciò di Carnap).
Il modello nomologico-deduttivo o D-N ha incontrato critiche e favori ma da quel momento in poi è diventato il terreno di incontro e scontro per ciò che concerne il problema filosofico della spiegazione scientifica. Tale modello, come detto nato in seno al neoempirismo o empirismo logico, emerge da un contesto filosofico post-kantiano, post-hegeliano, anti-metafisico e anti-teologico ossia il programma neopostitivista tout court.
Per questa scuola – per la quale il ruolo della filosofia è di costruire "esplicazioni" di concetti fondamentali della scienza – la spiegazione è un tipo speciale di descrizione. Il modo di procedere del pensiero neoempirista consiste nel porre un explicandum (il concetto da esplicare) e produrre un explicatum (l'eplicitazione del concetto). I criteri dell'esplicitazione sono: a) somiglianza dell'explicandum con l'explicatum; b) esattezza; c) fecondità; d) semplicità.
La prima differenza importante è quella tra spiegazione ed evidenza. Diciamo che il red shift o spostamento verso il rosso in cosmologia è un evidenza dell'allontanamento delle galassie ma di certo il red shift non spiega l'allontanamento. Il modello della spiegazione non è il modello ipotetico-deduttivo o H-D: in questo modello la conclusione conferma la premessa o ipotesi. Il modello D-N permette di spiegare la conclusione o explanandum dalle premesse explanans.
Hempel e Oppenheim hanno poi distinto le spiegazioni in spiegazioni reali e spiegazioni potenziali. Il primo tipo produce spiegazioni corrette di fatti accaduti e certi, mentre il secondo tipo produce solo spiegazioni corrette formalmente.
Per l'articolo Studies in the logico of explanation esistono quattro aree di competenza del modello D-N detto anche modello a legge di copertura o semplicemente opinione ricevuta.


Leggi/Explanandum
Idiografico
Nomotetico
Universali
D-N
D-N
Statistiche
I-S
D-S