Teoria
disposizionale di Coffa
Secondo Coffa il problema dell'ambiguità è il problema della classe di riferimento che sorge nella visione frequentista della probabilità riferita ai casi singoli. Considerando la probabilità come propensità alllora si tratterebbe di un attributo fisico di eventi.
Per tutte le spiegazioni Coffa propone di inserire la "clausola delle condizioni limite"; nelle spiegazioni induttive la clausola fa quello che fa RMS per Hempel e quello che fa l'omogeneità di Salmon.
Appare così la concezione ontica per cui i) la spiegazione è là fuori nel mondo ed è composta dalle condizioni (fatti) che hanno permesso l'avveramento di un certo altro fatto o ii) la spiegazione è un testo di enunciati che descrivono dei fatti.
La propensità si basa sul concetto di "sistema probabilistico" (chanche setup). La propensità non reggerebbe la probabilità negativa.
Spiegazione ed evidenza
Rescher (1958) sostiene l'anti-simmetria di spiegazione e previsione. Ha una posizione epistemica (spiegazione=argomento) e esistono argomenti esplicativi ed argomenti predittivi la cui distinzione è il grado di probabilità della conclusione. Ciò è un fatto di natura e non una verità logica.
Rescher (1963) introduce la nozione di sistema a stati discreti e dimostra come sia possibile costruire sistemi in cui sia possibile predire e retrodire e altri in cui non è possibile né l'uno né l'altro. Secondo l'opinione ricevuta le premesse di D-N sono evidenze e Rescher introduce tre tipi di evidenze: a) evidenza di presupposizione: rende l'ipotesi più probabile della negazione; b) evidenza di sostegno: forma di rilevanza che rende l'ipotesi più probabile quando è disponibile; c) evidenza di conferma: quando valgono le due evidenze per l'ipotesi.
Per dire che un enunciato è una legge non solo deve reggere i modali e sostenere i controfattuali ma deve andare oltre l'evidenza empirica, con ciò vuol dire che le leggi sono generalizzazioni su base epistemica, dipende cioè dalla mente.
La spiegazione delle leggi
Nella famosa "nota 33" dello storico articolo di Hempel e Oppenheim è stato sollevato l'imbarazzo per non saper produrre un D-N per leggi. Non sarebbe stato possibile distinguere da una derivazione di leggi più generali e una legge irrilevante.
Friedman (1974) sostiene che la scienza spiega attraverso unificazione: la teoria cinetica spiega il comportamento di pianeti soddisfano le leggi di Keplero che quelle di Galielo. La scienza aumenta la nostra comprensione del mondo riducendo il numero di fenomeni indipendenti che dobbiamo accettare come fatti bruti. La nozione di "accettazione" è centra nella teoria di Friedman. Esiste un insieme K di enunciati che sono leggi accettate dalla comunità scientifica ed è chiuso deduttivamente, perciò ogni enunciato legisimile dovrà essere accettabile indipendentemente dagli altri. Un legisimile è indipendente da un altro se non ci sono motivi sufficienti per cui il primo ci farebbe accettare il secondo.
Per enumerare i legisimili propone la "partizione" di un enunciato tali che i Z enunciati sono equivalenti ad S ma ogni enunciato "k-atomico" di S è accettabile indipendentemente.
L'articolo di Friedman è stato severamente criticato da Salmon e Kitcher e viene rigettata la tesi che la spiegazione è una unificazione e che in generale l'unificazione sia l'abiettivo della scienza, ma l'unficazione porta ad una maggiore comprensione scientifica del mondo. Ora il quadrante nomotetico di D-N ha un candidato.
Secondo Coffa il problema dell'ambiguità è il problema della classe di riferimento che sorge nella visione frequentista della probabilità riferita ai casi singoli. Considerando la probabilità come propensità alllora si tratterebbe di un attributo fisico di eventi.
Per tutte le spiegazioni Coffa propone di inserire la "clausola delle condizioni limite"; nelle spiegazioni induttive la clausola fa quello che fa RMS per Hempel e quello che fa l'omogeneità di Salmon.
Appare così la concezione ontica per cui i) la spiegazione è là fuori nel mondo ed è composta dalle condizioni (fatti) che hanno permesso l'avveramento di un certo altro fatto o ii) la spiegazione è un testo di enunciati che descrivono dei fatti.
La propensità si basa sul concetto di "sistema probabilistico" (chanche setup). La propensità non reggerebbe la probabilità negativa.
Spiegazione ed evidenza
Rescher (1958) sostiene l'anti-simmetria di spiegazione e previsione. Ha una posizione epistemica (spiegazione=argomento) e esistono argomenti esplicativi ed argomenti predittivi la cui distinzione è il grado di probabilità della conclusione. Ciò è un fatto di natura e non una verità logica.
Rescher (1963) introduce la nozione di sistema a stati discreti e dimostra come sia possibile costruire sistemi in cui sia possibile predire e retrodire e altri in cui non è possibile né l'uno né l'altro. Secondo l'opinione ricevuta le premesse di D-N sono evidenze e Rescher introduce tre tipi di evidenze: a) evidenza di presupposizione: rende l'ipotesi più probabile della negazione; b) evidenza di sostegno: forma di rilevanza che rende l'ipotesi più probabile quando è disponibile; c) evidenza di conferma: quando valgono le due evidenze per l'ipotesi.
Per dire che un enunciato è una legge non solo deve reggere i modali e sostenere i controfattuali ma deve andare oltre l'evidenza empirica, con ciò vuol dire che le leggi sono generalizzazioni su base epistemica, dipende cioè dalla mente.
La spiegazione delle leggi
Nella famosa "nota 33" dello storico articolo di Hempel e Oppenheim è stato sollevato l'imbarazzo per non saper produrre un D-N per leggi. Non sarebbe stato possibile distinguere da una derivazione di leggi più generali e una legge irrilevante.
Friedman (1974) sostiene che la scienza spiega attraverso unificazione: la teoria cinetica spiega il comportamento di pianeti soddisfano le leggi di Keplero che quelle di Galielo. La scienza aumenta la nostra comprensione del mondo riducendo il numero di fenomeni indipendenti che dobbiamo accettare come fatti bruti. La nozione di "accettazione" è centra nella teoria di Friedman. Esiste un insieme K di enunciati che sono leggi accettate dalla comunità scientifica ed è chiuso deduttivamente, perciò ogni enunciato legisimile dovrà essere accettabile indipendentemente dagli altri. Un legisimile è indipendente da un altro se non ci sono motivi sufficienti per cui il primo ci farebbe accettare il secondo.
Per enumerare i legisimili propone la "partizione" di un enunciato tali che i Z enunciati sono equivalenti ad S ma ogni enunciato "k-atomico" di S è accettabile indipendentemente.
L'articolo di Friedman è stato severamente criticato da Salmon e Kitcher e viene rigettata la tesi che la spiegazione è una unificazione e che in generale l'unificazione sia l'abiettivo della scienza, ma l'unficazione porta ad una maggiore comprensione scientifica del mondo. Ora il quadrante nomotetico di D-N ha un candidato.
È
vero che le spiegazioni sono argomenti?
Jeffrey nel 1969 spiega perché le spiegazioni statistiche – fatta eccezione per alcuni casi limite – non sono argomenti. Salmon è della stessa idea e dopo un periodo estremista di negazione di identità tra spiegazione ed argomento giunge alla tesi per cui alcune spiegazioni non sono argomenti.
Nella spiegazione deduttiva l'aggiunta nelle premesse di argomenti irrilevanti non pregiudica la conclusione, mentre ciò non accade per le spiegazioni statistiche in cui una premessa irrilevante conduce a conclusioni contradditorie (RMS ed evidenza totale doveva impedire il problema).
Salmon (1977) propone domande per imbarazzare i sostenitori dell'opinione ricevuta:
a) perché una spiegazione D-N è valida anche se introduce premesse irrilevanti, ma I-S non lo permette?
b) è possibile spiegare eventi poco probabili (indeterminismo)?
c) perché le spiegazioni devono essere soggette ad assimetria temporale mentre gli argomenti no?
Salmon conclude che la causalità è un concetto centrale nella spiegazione.
Jeffrey nel 1969 spiega perché le spiegazioni statistiche – fatta eccezione per alcuni casi limite – non sono argomenti. Salmon è della stessa idea e dopo un periodo estremista di negazione di identità tra spiegazione ed argomento giunge alla tesi per cui alcune spiegazioni non sono argomenti.
Nella spiegazione deduttiva l'aggiunta nelle premesse di argomenti irrilevanti non pregiudica la conclusione, mentre ciò non accade per le spiegazioni statistiche in cui una premessa irrilevante conduce a conclusioni contradditorie (RMS ed evidenza totale doveva impedire il problema).
Salmon (1977) propone domande per imbarazzare i sostenitori dell'opinione ricevuta:
a) perché una spiegazione D-N è valida anche se introduce premesse irrilevanti, ma I-S non lo permette?
b) è possibile spiegare eventi poco probabili (indeterminismo)?
c) perché le spiegazioni devono essere soggette ad assimetria temporale mentre gli argomenti no?
Salmon conclude che la causalità è un concetto centrale nella spiegazione.
Sfida
della causalità
Hume ha mostrato come il legame causale sia per priorità o per contiguità o per congiunzione costante. Ma quali sono le congiunzioni tra cause intermedie ed effetti?
La relatività sostiene che c è la velocità massima in questo universo, ma le ombre possono superare c e quindi non dobbiamo reputarle cose?
La luce proiettata su un muro può superare arbitrariamente c. Se si potesse inviare un messaggio superando c il 'principio di simultaneità della relatività' sarebbe violato.
Salmon propone la differenza tra 'processi causali' e 'pseudo-processi'. La differenza tra evento e processo starebbe nella durata cronologica: l'esplosione di una supernova è un evento, il viaggio di un neutrino invece un processo. Perciò un processo o uno pseudo-processo saranno sempre uniformi e continui. La differenza tra i due è nella capacità di trasmettere informazione o nella propagazione del marchio. Solo i processi costituiscono causa, questi propagano la loro struttura.
Salmon sostiene la teoria in-in di Russel che sarebbe la soluzione al paradosso di Zenone per cui il moto sarebbe una relazione tra punti spaziali e attimi temporali: muoversi è occupare posizioni diversi in momenti temporali successivi.
Spiegazioni teleologiche e funzionali
La filosofia della biologia si sviluppa dopo un lungo periodo di silenzio. La spiegazione funzionale torna alla ribalta nella riflessione filosofica.
Wright (1972) sviluppa una teoria dell'eziologia della conseguenza che permette di dare una connotazione meccanico-causale alle spiegazioni funzionali considerando la funzione come trattenimento delle conseguenze che quella funzione ha avuto.
Bigelow e Pargetter (1987) hanno un'orientamento verso la propensità e la consecutio cronologica maggiore rispetto a Wright per cui un ente ha una certa disposizione a fare x. La differenza principale tra Wright e Bigelow & Pargetter è che per i secondi una funzione è tale sin dal primo momento della sua comparsa.
Nagel (1977) contesta gli equivalenti funzionali di Hempel, date le circostanze ideografiche solo quella funzione è necessaria e sufficiente al sistema. Per Wright l'attribuzione funzionale non è altro che la risposta alla domanda perché è lì e siano legittime perciò le spiegazioni funzionali.
Hume ha mostrato come il legame causale sia per priorità o per contiguità o per congiunzione costante. Ma quali sono le congiunzioni tra cause intermedie ed effetti?
La relatività sostiene che c è la velocità massima in questo universo, ma le ombre possono superare c e quindi non dobbiamo reputarle cose?
La luce proiettata su un muro può superare arbitrariamente c. Se si potesse inviare un messaggio superando c il 'principio di simultaneità della relatività' sarebbe violato.
Salmon propone la differenza tra 'processi causali' e 'pseudo-processi'. La differenza tra evento e processo starebbe nella durata cronologica: l'esplosione di una supernova è un evento, il viaggio di un neutrino invece un processo. Perciò un processo o uno pseudo-processo saranno sempre uniformi e continui. La differenza tra i due è nella capacità di trasmettere informazione o nella propagazione del marchio. Solo i processi costituiscono causa, questi propagano la loro struttura.
Salmon sostiene la teoria in-in di Russel che sarebbe la soluzione al paradosso di Zenone per cui il moto sarebbe una relazione tra punti spaziali e attimi temporali: muoversi è occupare posizioni diversi in momenti temporali successivi.
Spiegazioni teleologiche e funzionali
La filosofia della biologia si sviluppa dopo un lungo periodo di silenzio. La spiegazione funzionale torna alla ribalta nella riflessione filosofica.
Wright (1972) sviluppa una teoria dell'eziologia della conseguenza che permette di dare una connotazione meccanico-causale alle spiegazioni funzionali considerando la funzione come trattenimento delle conseguenze che quella funzione ha avuto.
Bigelow e Pargetter (1987) hanno un'orientamento verso la propensità e la consecutio cronologica maggiore rispetto a Wright per cui un ente ha una certa disposizione a fare x. La differenza principale tra Wright e Bigelow & Pargetter è che per i secondi una funzione è tale sin dal primo momento della sua comparsa.
Nagel (1977) contesta gli equivalenti funzionali di Hempel, date le circostanze ideografiche solo quella funzione è necessaria e sufficiente al sistema. Per Wright l'attribuzione funzionale non è altro che la risposta alla domanda perché è lì e siano legittime perciò le spiegazioni funzionali.