Cerca nel blog

giovedì 29 gennaio 2015

Filosofia della scienza: i pennacchi di San Marco e il paradigma panglossiano: una critica del programma adattamentista (Gould & Lewontin, 1979)

Elementi architettonici e adattamenti
In architettura nessuno direbbe che i pennacchi, struttura intestiziale delle volte, sia stata progettata per essere dipinta, però in antropologia e biologia evoluzionistica si ricorre senza problemi a caratterizzare funzionalmente qualsiasi tratto o comportamento. Questo modo di fare può esse chiamato "panglossianismo" dal dottor Pangloss di Voltaire che spiegava il naso con gli occhiali e il nostro mondo come il migliore possibile.
Programma adattementista
Altro modo di chiamare il panglossianismo in biologia è
programma adattamentista e avviene sussumendo il potere della selezione naturale darwiniana che plasmerebbe forme e modi di tutti gli organismi. Gli studi ispirati dal programma adattamentista si articolano in due fasi:
1) si scinde un organismo in tratti che vengono poi definiti strutture modellate dalla selezione naturale per le loro funzioni. Cos'è un
tratto? Lungi dall'essere un banale problema linguistico, la riduzione in tratti è una posizione ontologica. Se si considera il mento a sé invece come punto di incrocio di due strutture (alveolare e mandibolare) si è portati a credere nella ricapitolazione1 anziché la neotenia2.
2) se fallisce la spiegazione della parte discreta si ricorre all'interazione tra parti e entra in gioco la nozione di "
compromesso" e l'intero organismo è visto come il miglior compromesso tra differenti domande selettive. Questa prospettiva impedisce il pensiero dell'imperfezione portando a termine il panglossianismo nella ricerca, ossia il migliore dei mondi possibili.
Gli evoluzionisti ammettono selezioni non-adattive (deriva
3, allometria, ecc.) ma non pongono questioni nell'adattamento del tratto per cui:
1) se una spiegazione adattiva viene meno si deve cercarne un'altra;
2) se non è disponibile deve comunque esisterne una;
3) se manca è per un'imperfetta conoscenza dell'habitat e delle abitudini;
4) enfatizzare l'utilità immediata del tratto ed escludi altri attributi di forma: l'esempio sono le braccine del tirannosauro che sono ritenute funzionali a qualcosa poiché sono lì.

Raccontare storie adattamentiste ed alternative

Questo modo di fare porta i biologi a raccontare storie sull'adattamento, perciò l'adattamento viene assunto a necessità ontologica anche laddove non c'è.
Esistono delle alternative al programma adattamentista:
1.
Nessun adattamento e nessuna selezione: il caso è sufficiente a fare emergere polimorfismo genetico senza che avvenga la selezione (genetica statistica).
2.
Nessun adattamento e nessuna selezione sulla parte: la forma è una conseguenza di una selezione operata altrove poiché è l'intero organismo ad alterarsi e non la sua parte. Darwin classificava delle leggi di "correlazione di crescita" che oggi chiamiamo pleiotropia4, allometria5 e "compensazione materiale6". In alcuni casi interessanti la selezione è avvenuta per progenesi7.
3.
Riaccoppiamento di selezione e adattamento:
3
a. Selezione senza adattamento (Lewontin, 1979) è possibile che il fenotipo non si mostri o se si mostrasse potrebbe essere indirettamente dannoso, perciò porterebbe a disadattamento.
3
b. Adattamento senza selezione: l'adattamento è puramente fenotipico. Il problema principale è che con adattamento ci si riferisce a tre fenomeni appartenenti a logiche diverse: c'è l'adattamento evoluzionistico (genetico), fisiologico (puramente fenotipico) e culturale.
4.
Adattamento e selezione ma nessuna base selettiva per le differenze fra gli adattamenti: possono essere conservati piani ottimali di organizzazione ma espressi confermemente alla contingenza storica (esempio la chiocciola Cerion).
5.
Adattamento e selezione, ma l'adattamento è utilizzazione secondaria di parti presenti per ragioni strutturali, di sviluppo o storiche (es. i pennacchi).
Un altro approccio all'evoluzione
Nella letteratura del vecchio continente, dove l'analisi delle parti a scapito dell'organismo unitario è meno imperante, si sono dati i presupposti per un teoria dell'evoluzione che è apparsa in una forma forte e una debole.
La
forma forte spiega che la selezione naturale è superficiale, esiste un Bauplan che resta immodificato e si presuppone che esistano meccanismi sconosciuti che lo alterano.
La
forma debole non prevede un meccanismo nascosto, ma limiti strutturati. Esistono limiti geometrici che non possono essere spiegati con l'ecologia e la biologia moderna non lo tiene in considerazione apertamente. I vincoli sono:
a)
vincoli filetici – distinti da Gregory in abitudine ed ereditarietà e vengono usati per spiegare come mai non esiste un insetto grande come un elefante, ad esempio;
b)
vincoli legati allo sviluppo – possono essere considerati una sottocategoria dei vincoli filetici ma possono rendere conto di pressoché tutti i possibili percorsi evolutivi;
c)
vincoli architettonici o bautechnischer – apparsi nelle teorie del paleontologo Seilacher con cui designa non tanto i precedenti adattamenti che vengono conservati nelle nuove collocazioni ecologiche, ma bensì i limiti strutturali che sono conseguenze necessarie di forme e materiali selezionati per costruire i Baupläne di base.

1Dalla metà del XVIII secolo le scienze naturali si sono specializzate e nasce l'indirizzo biologico. Nel vecchio continente appaiono due teorie ontogenetiche: l'epigenesi e il ricapitolazione. Nella prima l'adulto è contenuto come miniatura nel germe, per la seconda (sotto l'influsso della filosofia di Schelling) nell'ontogenesi è presente la trasformazione per gradi di organismo inferiori – l'ontogenesi ricapitola la filogenesi.
2Con 'neotenia' o 'pedomorfosi' si intende il prolungato mantenimento di caratteri infantili o giovanili durante l'ontogensi. Il concetto appare nell'opera del biologo tedesco Ernst Hackel accanto al concetto di 'eterocronia'. Con questo termine si intende la sfasatura esistente tra determinate strutture nello sviluppo dell'embrione e i tempi di comparse delle medesime strutture organiche nella storia evolutiva.
3La 'deriva genetica' appare nella letteratura della genetica delle popolazioni ed è il reciproco di 'mutazione genetica', ossia è quel processo statistico che porta all'eliminazione dal pool genetico di alleli mutati.
4Nella letteratura genetica la 'pleiotropia' è un fenomeno genetico per il quale un singolo gene o gruppo di geni è in grado di influenzare molteplici aspetti fenotipici dell'organismo.
5Termine biologico che indica il rapporto tra un organo o parte e l'intero organismo. Quando una parte o organo accresce con velocità diversa da quello del resto del corpo si parla di accrescimento eterogonico o eteroauxesi. Quando organismi appartenenti a specie diverse per un differente accrescimento relativo avvenuto nel corso dell'evoluzione si parla di allomorfosi o allometria evolutiva.
6In genetica un meccanismo che modula l'espressione di geni in modo di mantenere un certo fenotipo.

7In biologia si intende la generazione che avviene durante la fase larvale.

Filosofia della scienza: Teleologia rivisitata. Processi diretti ad uno scopo in biologia (Nagel, 1977)

Naturalismo e teleologia in biologia
'Naturalismo' è il nome dato ad alcune dottrine filosofiche che spesso non hanno presupposti e contenuti comuni. Dewey ha chiamato la sua logica come "teoria della ricerca" e ha detto che è naturalistica. Ammette questo presupponendo che non ci sono confini tra biologia e le operazioni della ricerca. Dewey inoltre ammette che la teoria di Darwin è stata interpretata come una teoria di design vs chance (necessità vs caso).
I biologi credono che il linguaggio teleologico, visto con sospetto da molti scienziati, sia indispensabile nella loro ricerca. Ritengono che la teleologia emerga qualora si passi ad analizzare organismi viventi. Una prima distinzione tra "
caratterizzazione degli scopi" e "funzionale" è già una distinzione teleologica. I biologi usano 'scopo' e 'funzione' in modo intercambiabile. Questa distinzione è importante per due motivi: a) l'analisi degli obiettivi è diversa da quella delle funzioni; b) la spiegazione funzionale in biologia è diversa dall'analisi di comportamenti diretti ad uno scopo.

Prospettive nell'interpretazione di comportamenti diretti ad uno scopo
Il comportamento diretto ad uno scopo è analizzato da diverse prospettive e Nagel ne individua tre:
1a. Analisi del comportamento umano e degli animali superiori
Qui il comportamento si dice intenzionale ed è uno stato mentale interno. Esempi sono il 'volere', 'credere', ecc. Si suppone che l'agente voglia G e crede che A sia l'azione che porta a G.
Questa è la prospettiva intenzionale. Le spiegazioni di questo tipo somo teleologiche e tale comportamento è detto plastico, nel senso che più alternative portano a G e G può essere raggiunto partendo da circostanze C diverse. Questa prospettiva può essere applicata solo ad animali che possono essere caratterizzati da intenzioni.
1b. Per Woodfield questa restrizione è eccessiva e sono sufficienti (oltre che necessari) stati interni analoghi al volere G. Questi desideri sono attivati da servomeccanismi codificati nella struttura interna. Per cui qualsiasi sistema cibernetico può essere analizzato per comportamenti diretti ad uno scopo. Secondo Nagel, il fatto che esista un processo attivato dalla struttura di appartenenza e questo conduca ad uno stato S codificato non significa che questo sia uno scopo.
2. Nella biologia moderna, in cui è chiara l'informazione genetica del DNA, è comparso l'uso della parola programma ereditario e viene fatto uso della teoria dell'informazione. Mayr ha distino due specie di processi diretti ad un fine. Teleomatici quelli regolati da forze esterne in condizioni passive e automatiche; teleonomici che copre quelli chiamati teleologici e in cui rientra la nozione di programma e si può adoperare nei sistemi cibernetici. Distingue tra due tipi di programmi: chiusi e aperti. Il DNA, un programma chiuso, controllerebbe i processi teleonomici.
Nagel critica l'approccio "programma codificato" in quattro punti.
Nei primi due punti Nagel mostra come non si possa dedurre dal programma l'orientamento ad uno scopo di un processo poiché occorre tenere sempre conto delle leggi di natura. Nel terzo punto critica l'approccio di Mayr dicendo che nemmeno se il programma è chiuso è sufficiente per determinare l'orientamento ad uno scopo di un processo. Infine nella quarta critica mostra come sia insufficiente la distinzione tra 'teleomatico' e 'teleonomico' come concetti analitici poiché anche nei processi teleonomici partecipano le leggi di natura come forze esterne.
3. Dal punto di vista biologico, l'approccio cibernetico è detto 'organismico'. In questo approccio è necessario distinguere i processi diretti ad uno scopo da quelli che non lo sono. Perciò plasticità – differenze nei modi e nelle condizioni di partenza – e persistenza – mantenimento del sistema dei processi diretti ad uno scopo come compensazioni a disturbi – permettono questa distinzione.

Esempio di omeostasi e ortogonalità
La concentrazione di acqua nel sangue è il 90%. Il sistema-organismo comprende meccanismi complessi che permettono il mantenimento di tale percentuale. Lo scopo G è mantenere questa costante. Tale sistema è composto di reni K che rimuovono acqua dal sangue e muscoli e pelle che possono rilasciare acqua nel flusso ematico M. Le variabili K e M sono indipendenti o ortogonali tra di loro, nel senso che entro certi limiti K e M possono avere qualsiasi valore. Perciò plasticità, persistenza e ortogonalità sono i tre tratti discriminanti che distinguono processi diretti ad uno scopo da quelli che non lo sono. Diciamo che la coordinazione di sistemi indipendenti è la cifra distintiva di un governo che dirige ad uno scopo.



Lettura delle spiegazioni di biologia organismica
a) Nella system-property view (3) appaiono spiegazioni caratterizzate teleologicamente, ma non sono strettamente teleologiche poiché si riferiscono a cause che hanno a che fare con proprietà del si sistema che antecede il processo o comportamento spiegato.
b) Esistono spiegazioni che assumono "capacità", "organizzazioni tra parti", "leggi" che governano gli "effetti", ad esempio il metabolismo del corpo viene spiegato in questo modo. Queste spiegazioni sono dette "causali" nel modo in cui sono le scienze fisiche. Questo modello descrittivo ed esplicativo appare però alcune volte rovesciato ed è tipico delle spiegazioni funzionali.
Cummins ha criticato la concezione di 'funzione' ed ha mostrato come la caratterizzazione spesso venga eseguita sulla scorta dell'inferenza alla miglior spiegazione. Di seguito ha mostrato come il secondo tipo (rovesciato) sia assimilabile al primo, assumendo che un processo richiede la causa C e formulando l'ipotesi H che spiega l'effetto E.

Filosofia della scienza: l'idea di teleologia (Mayr, 1972)

Teleologie
Fino a Darwin la teleologia ha influenzato la biologia e con la teleologia si intende l'appello a "cause finali" ed al finalismo. Tali idee che influenzano la visione del mondo sono:
1.
Ortodossia cristiana o creazionismo: un mondo recentemente creato e costante.
2.
Eterno ritorno (Democrito) di un mondo costante o ciclico che non esprime finalità o direzioni. Non c'è spazio per teleologie.
3. Mondo eterno tendente al perfezionamento (
Scala Naturae).
3
a. Ortogenesi: un 'drive' intrinseco spinge verso la perfezione.
Tale principio, l'ortogenesi, confutato da Weismann, ma popolare fra gli scienziati di inizio secolo, non è stato sostituito finché non si è giunti alla sintesi evoluzionistica (genetica+evoluzione).
All'inizio del XX° secolo il finalismo è ancora in auge nella filosofia (Bergson propone l'
elan vital, Whitehead e Polanyi sono finalisti). Nemmeno alla confutazione del finalismo si sono dismessi gli argomenti teleologici della spiegazione biologica.Aristotele ha propugnato una visione teleologica del cosmo e perciò è stato etichettato come finalista. Greene però ha mostrato come il 'telos' aristotelico non sia il 'telos' giudaico-cristiano. Per gli interpreti moderni di Aristotele la sua teleologia si riferisce all'ontogenesi e all'adattamento delle forme di vita, perciò è estremeamente moderno.Kant era un meccanicista che adottava spiegazioni teleologiche per certi fenomeni vitali in linea con la biologia del suo periodo, perciò sarebbe assurdo nominare Kant nella protezione del finalismo.
I filosofi che criticano la teleologia biologica giudicano che 'funzione' si riferisce a due concetti distinti, per i quali il termine 'programma' gioca un ruolo fondamentale nel comportamento-diretto-ad-uno-scopo. Ciò è dovuto al potere evoluzionistico della biologia, per cui da Darwin in poi si può chiedere 'perché' anche ad un biologo.

Apologia del teleologismo biologico
Ai critici del teleologismo si confutano le seguenti assunzioni:
1. la teleologia implica
elementi metafisici ineliminabili – non è sempre così;
2. gli argoment teleologici non hanno
senso fisico-chimico – i biologi non contestano che ciò sia valido fino alla cellula, poi subentrano gradi organizzazione irriducibili;
3. argomenti teleologici introducano
antropomorfismo in biologia – la cibernetica ha potuto formalizzare comportamenti teleologici anche nel mondo inorganico;
4. eventi teleonomici entrano in contrasto con la
direzione della causalità – ciò è spiegabile in senso classico (dal passato al futuro) con l'introduzione del concetto di programma;
5. le spiegazionni teleologiche devono essere qualificate come
leggi – questo ha creato solo confusione;
6. '
telos' vuol dire fine o scopo e punto d'arrivo – per i biologi questi due significati sono distinti.
La parola 'telos' è stata usata in filosofia con due accezioni diverse:
a)
Aristotele: telos come scopo anticipato o processo iniziato, ad esempio: il telos dell'uovo fertilizzato è trasformarsi in animale adulto, in questo senso è il suo scopo.
b)
Pierce: telos come riferimento allo scopo di un processo che ha termine. Pierce propone di chiamare 'finious' ogni processo che tende ad uno stato finale, ad esempio il processo che porta il sasso a cadere termina con il fermarsi a terra ma nessuno direbbe che lo scopo del sasso è cadere.

Categorie di teleologia
Beckner crede che si usi il termine 'teleologia' in tre contesti: a) quando si parla di scopi, di funzioni e di intenzioni. Woodger ha mostrato le diverse accezioni ma non è andato molto lontano perciò Mayr propone la sua distinzione.
Processi teleonomici: processi che possono essere considerati attività guidate da un programma. Mayr propone questa definizione: un processo o comportamento teleonomico è orientato nella sua direzione-allo-scopo da un programma. Questo permette di poter rifarsi ad una causalità classica. Un processo o comportamento teleonomico ha due componeneti: i) è guidato da un programma;
ii) la sua direzione e scopo dipende anticipatamente dal programma.
La parola chiave è perciò
programma, che è i) qualcosa di materiale e ii) qualcosa che esiste prima dell'esecuzione del processo. Può essere definito come un insieme preorganizzato e codificato che contralla il processo/comportamento portandolo ad un obiettivo. Non solo il programma contiene il progetto dello scopo, ma anche le istruzioni per usare le informazioni del progetto.
I programmi possono essere
chiusi (il genotipo è un programma chiuso) o aperti, per il quale ulteriori informazioni possono essere aggiunte nel corso dell'esecuzione.Processi teleomatici: sono processi guidati dalle leggi naturali, perciò sono passivi, automatici e regolati da forze esterne. Sono teleomatici in quanto eseguiti automaticamente. Già Aristotele distingue tra processi teleomatici e teleologici incontrati negli organismi. Molti processi di questo tipo sono finiuos, nel senso che hanno un termine ma non uno scopo.
Per Mayr il decadimento radioattivo è un processo teleomatico che non ha nessun programma a controllarlo. Il cadere di una pietra è teleomatico ma non nel senso che ha un obiettivo, ma nel senso Aristotelico di modale, ciò può fare solo quello in tali condizioni, perciò per necessità.



Gli adattamenti nella letteratura biologica
Gli adattamenti nella letteratura biologica normalmente si riferiscono a teleologie o sistemi funzionali. La parola 'teleologia' non sembra però appropriato per ciò che non è in movimento, ma anche risente di una generale eredità della teleologia naturale. Il discorso dei tratti come funioni però deriva dall'evoluzione differenziale darwiniana, ma l'adattamento del più adatto è piuttosto a posteriori cha a priori in termini biologico-evoluzionistici. Per questa ragione occorre abbandonare la teleologia dei tratti.

Selezione naturale e teleologia
Spesso si è data una interpretazione teleologica dell'evoluzione darwiniana, sia dagli entusiasti che dai detrattori. Gli adattamenti, neutri di per sé, sarebbero visti come "progresso" o "miglioramento". Secondo Mayr la migliore definizione della selezione naturale sarebbe quella di processo finious.

Teleologia cosmica
Esistono tre tesi:
1. pianificatore evoluzionario (spiegazione teistica);
2. programma integrato di sviluppo (ortogenesi);
3. nessuna teleologia cosmica e nessun progresso o perfezione da raggiungere.
I processi teleonomici, teleomatici e l'dattamento per selezione naturale hanno tolto qualsiasi elemento soprannaturale puntando sul materialismo. Questi processi hanno coperto la teleologia senza residui eliminando la stessa plausabilità della teleologia cosmica.

Filosofia della scienza: analisi funzionale (Cummins, 1975)

Assunzioni fondamentali dell'analisi funzionale
Secondo Cummins l'analisi funzionale procede quasi senza eccezione da due assunzioni:
A) La caratterizzazione funzionale nella scienza è spiegare la presenza di un qualcosa che è funzionalmente caratterizzato.
B) per qualcosa avere una funzione significa avere certi effetti su un sistema contenente, effetti che contribuiscono all'esecuzione di alcune attività o al mantenimento di alcune condizioni del sistema.
Dunque unendo queste due assunzioni si spiega la presenza dell'oggetto in un sistema rilevando che tale oggetto ha effetti sul sistema.

Contro Hempel e Nagel
Hempel: il battito cardiaco ha la funzione di far circolare il sangue attraverso l'organismo
La tentazione di sostituire 'funzione' con 'effetto' è evitato dal fetto che il battito cardiaco produce anche del suono, anch'esso perciò un effetto, mentre diciamo che la funzione è un'altra.
Hempel: il battito cardiaco nei vertebrati ha l'effetto di far circolare il sangue e questo assicura il soddisfacimento di alcune condizioni che sono necessarie per l'organismo.
Questa descrizione non ha nessuna forza esplicativa e lo schema esplicativo dell'analisi funzionale, in base ad un impianto D-N, non evita il problema degli equivalenti funzionali.
Nagel: 3) la funzione della clorofilla è di permettere alle piante il processo di fotosintesi
4) una condizione necessaria all'occorrenza della fotosintesi nelle piante è la presenza di clorofilla.
4 non evita il problema: la presenza della clorofilla è necessaria nelle situazioni "normali", ad ogni modo emerge che l'ente E per essere E deve avere necessariamente la struttura S.
Cummins: la funzione dei reni è di eliminare i rifiuti dall'organismo, ma la presenza del rene sinistro non è necessaria normalmente dato che se dovesse mancare la funzione sarebbe continuata dal destro.


Il post Wright: l'interpretazione filosofica ingenua dell'analisi funzionale e gli artefatti
Da Wright in poi chiedere della funzione è chidere "perché x è lì?". Se prendiamo uno gnomone e chiediamo perché è lì possiamo sentir rispondere che è lì perché la sua ombra permette l'inferenza sull'ora della giornata. Questo è quello che normalmente i filosofi intendono quando si parla di spiegazione funzionale, ma l'uso scientifico è diverso. Questo sebbene può essere usato per oggetti che sono una parte di un artefatto o sono artefatti. Con la domanda noi chiediamo lumi sulla ragione di tale x che è lì. Mettiamo che ciò che consideriamo una meridiana è in realtà un'acquasantiera caduta sun un mosaico zodiacale.
È opportuno distinguere la spiegazione funzionale dalla spiegazione teleologica perché nel secondo caso viene fatto pure lì l'uso di funzioni. La clorofilla, il tessuto nervoso, il cuore, ecc. sono lì perché fanno parte della nostra miglior spiegazione (inferenza alla miglior spiegazione). Perciò la forma esplicativa non procederebbe da x – dall'oggetto della domanda funzionale – ma dalla funzione. Cummins suggerisce di refutare A) e una spiegazione D-N tornerebbe ad essere una spiegazione (argomento) forte.


Il modello di Cummins e la selezione naturale
Cummins propone questo modello:
a) i vertebrati (classe c) incorporano un cuore (x) nel modo di c e mostrano la circolazione;
b) il vertebrato s incorpora un cuore al modo di c
c) quindi s mostra la circolazione
Cummins fa poi due esempi tratti dalla letteratura biologica:
1) la funzione del vacuolo contrattile (x) nei protozoi (c) è l'eliminazione dell'acqua (f);
2) la funzione delle neurofibrille (x) nei ciliati (c) è la coordinazione della ciglia (f).
Queste proposizioni possono essere comprese in due modi: i) come l'organismo esibisce certe caratteristiche o comportamenti; ii) spiegare la sopravvivenza degli organismi che incorporano tali strutture.
La tesi A è accetata dai filosofi nella modalità ii sulla scorta della "selezione naturale". Ciò porta a fraintendere la selezione naturale e la teoria dell'evoluzione. Infatti la funzione del vacuolo contrattile non è la stessa in tutti i protozoi.
Se un organismo s incorpora x diciamo che x appartiene al piano genetico della specie, ma se una mutazione di x interviene e dà x' questa permane nonostante la funzione e la sopravvivenza di s. Se la mutazione del piano è vantaggiosa e l'elterazione incrementa la propagazione del piano ciò ha un effetto sul piano stesso e il presentarsi di x'.
La selezione naturale non è l'istanza di un feedback negativo: il grado di successo o fallimento di un organismo non influisce sulle sue caratteristiche. Il piano genetico è indipendente rispetto al successo dell'organismo (tesi di indipendenza tra genotipo e fenotipo).
La selezione non altera il piano, ma può rimuovere eccessi. Perciò è erroneo predire il successo o il fallimento di un organismo dalla sua incorporazione di vacuoli contrattili. Le 'funzioni' dovrebbero essere intese in biologia evoluzionistica non come fattori di riproduzione, ma come capacità del sistema vivente.


Teoria degli effetti selezionati
La caratterizzazione funzionale à la Hempel può essere definita "teoria degli effetti selezionati" ed è una teoria che proviene dalla tesi B. Una teoria siffatta in genere richiede una formula che identifichi gli effetti appropriati. Wright è conscio del problema ma si limita a dire che il cuore non è lì per il suono cardiaco. Cummins perciò confuta pure che sia lì per pompare il sangue (752 nota 7); nemmeno Nagel è riuscito a far di meglio perché, data la sua teoria e modello, l'appendicite è lì per rendere l'organismo vulnerabile all'appendicite. Hempel si rifà ad un "ordine di lavoro" ma poi non dà esplicazione su che si tratti. Il ricorso ad una "normalità" e agli effetti è la base su cui si sviluppa la tesi B e da questa la teoria degli effetti selezionati.
Molti esempi danno da intendere che l'analisi funzionale in biologia possa essere indipendente dall'evoluzionismo, ossia non caricando la funzione di mantenimento della specie. Ovviamente non dicono tutti i biologi che la funzione dell'organismo è il mantenimento della sua specie. Perché i biologi evoluzionistici sono interessati al mentenimento della specie e chiamano le capacità come funzioni?
Cummins ritiene che il linguaggio funzionale nelle scienze abbia cittadinanze per il modo speciale in cui possono essere formulate spiegazioni.


Funzioni e disposizioni
Un qualcosa che è un grado di pompare non è dettto che il pompare sia poi la sua funzione, ma può funzionare come pompa nel sistema s per la sua capacità. La caratterizzazione funzionale implica proposizioni che si riferiscono a disposizioni: x ha la funzione/disposizione φ in s.
Per le disposizioni è importante il concetto di regolarità disposizionale e la spiegazione che ne fa ricorso adotta due strategie.

Strategia di sussunzione
Supponiamo che a abbia una disposizione a d. La regolarità disposizionale consiste nel fatto che certi eventi possano essere per a la causa di d, perciò viene sussunta da una legge generale.

Strategia analitica
Sussume la regolarità disposizionale non in base ad una legge generale dell'oggetto che ha la disposizione d ma analizza le altre disposizioni d', d'', ... che manifesta a come programma di d, ossia come risultatnte delle manifestazioni di d. In questa strategia si parla di capacità o abilità.
L'esempio è l'analisi della catena di montaggio dove la produzione viene suddivisa in un numero di compiti e la catena viene analizzata come programma interdipendente dei compiti.

Funzioni ed analisi funzionale
È durante l'applicazione della strategia analitica che emergono le funzioni nella forma "x funziona da φ in s" o "la funzione di x in s è φ-are". Questo fa dire che il cuore ha la funzione di pompare il sangue ma in un contesto non circolatorio ha senso dire che il cuore ha la funzione di avere il suo battito. Perciò la funzione è strettamente legata al sistema e alla strategia analitica e si riferisce ad una capacità.



La spiegazione analitico-funzionale
Per caratterizzare qualcosa ad una funzione è la motivazione e la forma del contesto a rendere possibile l'assegnamento di un ruolo di un'analisi del sistema-contenitore. La capacità analizzate emergono come funzioni.

Filosofia della scienza: funzioni (Wright, 1973)

Quando usiamo la parola 'funzione'?
La funzione non è né centrale né paradigmatica nei concetti teleologici, ma è comunque interessante e importante per comprendere le spiegazioni teleologiche.
L'uso di 'funzione' è anzitutto ambiguo:
1. y=f(x), la funzione matematica
2. X è una funzione dello Stato Maggiore, nel senso di cerimonia
3. Non funziona quando è a freddo (locuzione anglosassone)
4. Il cuore funziona così...
5. La funzione del cuore è pompare il sangue
6. La funzione di x è leggere meglio l'ora
7. Far entrare la luce è una funzione della finestra
8. La scatola di legno funziona come cuccia del cane (locuzione anglosassone)

3, 4 e 8 non usano il paradigma classico; 5, 6, 7 invece sì quando 'funzione' è un nome sostenuto dal verbo essere.

Distinzioni principali
Funzione vs Scopo (goal)
La direzione-ad-uno-scopo è un predicato comportamentale e quando parliamo di obiettivi parliamo intrinsecamente di comportamento. Le cose però possono avere funzioni ma non avere obiettivi. Quando un obiettivo ha una funzione questa non è lo stesso che l'obiettivo.
Una funzione vs La funzione
Funzione vs Accidente
Funzione conscia vs Funzione naturale
Se diciamo funzione conscia e funzione naturale ci riferiamo comunque a 'funzione' e lo scopo di questo articolo è di unificare il concetto di funzione.

Analisi di 'funzione'
Le analisi di cui rende conto Wright sono quelle di Canfield e di Beckner.
Per Canfield una funzione è utile [useful] al sistema s per il comportamento c.
Anche se l'apparato s ha un pulsante e questo non fa ciò per cui è stato progettato [designed] diciamo lo stesso che la funzione è ciò per cui il pulsante è stato progettato. Questo essere-progettato-per degli artefatti è un limite poiché in biologia si fa ricorso a 'funzione' ma nessuno scienziato moderno crede che l'organismo s sia stato progettato.
Per Wright questa definizione non va per le funzioni conscie, ossia se s è la coscienza e c una intenzione o un artefatto. Inoltre nella definizione logica di Canfield c'è un problema importante che non permette di distinguere tra accidente e non-accidente. Se qualcosa è utile-per può essere utile per accidente e non rappresenta perciò una funzione s. Dunque, oltre alle funzioni conscie, non rende conto nemmeno di tutte le funzioni naturali.
Per Beckner avere-la-funzione-di-x significa:
Se e solo se c'è un insieme di circostanze che contengono s e che siano sufficiente all'occorrere di f' e che sono richieste a f al fine di essere sufficienti ad f', allora si dà f' in s'.
C'è una serie di circostanze negli umani che hanno un cuore e questo cuore produce la circolazione, altrimenti non l'avrebbero.
Il modello di Beckner del 1969 è più articolato ma per Wright tale modello contiene degli elementi logici oscuri. Cosa si intende per "stesso schema concettuale" usato per definire le relazioni sistemiche e "contributi definizionali" o "descrittivi" riferiti al modo in cui individuare le parti partendo dal tutto s? Per Wright il problema più rilevante del modello di Becker è quello di non avere una chiara definizione di sistema.


Attribuzione funzionale
L'attribuzione funzionale [functional ascription] è una forma teleologica per dire che qualcosa è-al-fine-di [in order to]. Questa è strettamente parallela all'attribuzione di scopi [goal ascription], come ad esempio "il coniglio corre per fuggire dal cane" questo è al-fine-di e risponde bene alla domada "perché il coniglio corre?".
Ad esempio possiamo chiedere perché gli animali hanno il fegato e non intendiamo con questo "per cosa è buono [what is it good for]?" ma chiediamo "perché è lì?". Il fegato infatti serve per fare anche il fegato alla veneziana ma questo non è nell'animale per questa ragione e non diciamo perciò che è la sua funzione.

Eziologia delle conseguenze
Le considerazioni fin qui emerse conducono al suggerimento che l'attribuzione funzionale è in un certo senso eziologica e concerne lo sfondo del fenomeno preso in considerazione. La spiegazione funzionale non è perciò causale nel senso comune del termine ma spiega perché le cose sono dove sono. Occorre perciò una nozione di causalità estesa.
Il contrasto tra teleologia e causalità deve essere ridefinito per far emergere la causalità estesa a cui appartengono le funzioni. Dato che né Beckner né Canfield hanno dato una esplicazione che denoti in modo sufficiente la funzione per non avere distinto la funzione dall'accidente sarà il caso di partire da lì.

X è lì perché [because] fa Z
Fare Z è la ragione [reason] per cui X è lì
Quello che fa X a Z è il perché [why] X è lì
'Because', 'reason', 'why' hanno una forza eziologica e sono il kernel per una analisi adeguata delle funzioni. Il 'because' si fa beffe della distinzione ragione/causa (e motivo) e soprattutto quando diciamo "A because B" il 'because' non prevede nessi di efficacia né necessari né sufficiente.
Quando diciamo che "Z è la funzione di X" possiamo anche dire che "X fa Z". Se "X fa Z" supponiamo che senza X non ci sia Z e perciò diciamo che "X è capace [is able] di Z" sotto certe condizioni.
La necessità è perciò un criterio di demarcazione tra funzione/accidente, ma una funzione espressa come "Z because X" non ha criterio di sufficienza [159].
La distinzione funzione/causa è la differenza tra eziologia ed ha a che fare con la conseguenza causale: quando diciamo che "X fa Z" non stiamo solo dicendo che X è perché allora Z, ma diciamo che Z è la conseguenza della posizione di X.



Assimetria causa e conseguenza
Tra causa e conseguenza c'è un'assimetria difficile da spiegare (in genere si ritiene sia il tempo cronologico) e quando diciamo che: "la funzione di X è Z" intendiamo a) X è lì perché fa Z; b) Z è la conseguenza o il risultato dell'essere lì di X.
a) è la forma eziologica dell'analisi funzionale; b) distingue l'analisi funzionale dal resto.

Selezione
Questa causalità estesa influenza anche la nostra visione della "selezione", sia anche naturale, per cui diciamo "ho selezionato Z perché X" dove il perché [because] può essere inteso anche come attribuzione funzionale nel senso appena esposto. La selezione (o autoselezione nel caso di quella naturale) sarebbe una selezione delle conseguenze. Questa selezione può essere conscia oppure automatica.

Filosofia della scienza: spiegazione meccanicista e biologia organismica (Nagel, 1961)

Assunzioni ontologiche sull'irriducibilità della biologia alla fisica
Biologi e fisici sono concordi nel ritenere la biologia del futuro un capitolo della fisica. Alcuni biologi obiettano che l'ente studiato dalla biologia necessita di metodologie peculiari e tal'altri sostengono che la biologia è irriducibile in modo intrinseco alla fisica.
Gli argomenti a favore dell'irriducibilità sono:
1. Esiste una differenza ontologica tra vivente e non-vivente, perciò quanto meno è necessaria una metodologia adatta allo scopo dello studio. Da qui partirebbe l'autonomia della biologia.
2. Gli organismi viventi si autoregolano, autoconservano e autoriproducono e hanno scopi nel futuro. Le analisi funzionali sono perciò fondamentali per il biologo e "l'essere diretto ad un fine" diventa una categoria ontologica distintiva della biologia.

Problemi intorno alla cosidetta spiegazione teleologica della biologia
Quanto l'argomento 2 la spiegazione teleologica è onnipresente nella letteratura biologica. Per un fisico sarebbe un nonsense dire che gli atomi hanno gusci elettronici per legarsi con altri atomi e, in generale, la scienza moderna rigetta in toto la teleologia come "dottrina dei fini".
L'uso di 'teleologico' in questo genere di spiegazioni non è riferito a scopi o fini, ma a funzioni. La parola 'teleologia' diventa perciò ambigua.
Esempio della clorofilla: la funzione di A (clorofilla) in un sistema S, in un ambiente E, con organizzazione C è di disporre S al processo P produzione di amido.
Sostenere che la clorofilla è necessaria alla produzione di amido è inamissibile, dovremmo dire che, grazie alle condizioni, è sufficiente alla produzione di amido. È possibile sempre trasformare una espressione teleologica nel modo causale con cui si esprime la fisica, ma non vale sempre il contrario. Sembrerebbe che alcune formulazioni fisiche siano teleologiche, ma sono solo espresse in una forma isoperimetrica o variazionale. Lo stesso può dirsi dei principi estremali, quali il mantenimento dell'omeostasi. Entrambe le formulazioni non sussumono nessuna teleologia naturale.


Interpretazione della teleologia e cibernetica
La peculiarità dei sistemi biologici, ossia la direzione ad uno scopo, è accolta in tre modi:
1. si esprimono i fini in modo teleologico ma con atteggiamento neutro rispetto ad una teleologia della natura;
2. si considerano spiegazioni teleologiche e causali equivalenti;
3. è sempre possibile spiegare in termini fisico-chimici.
Nel frattempo è apparsa la cibernetica e la distinzione tra vivente e non-vivente, per ciò che concerne la teleologia, viene meno. Esistono sistemi fisici non-viventi diretti ad uno scopo.
Nagel ora parla di "grado di organizzazione" o "grado di persistenza" di un sistema. Si è però soliti parlare di "grado di plasticità" o "grado di adattabilità" di un sistema.
È in fin dei conti ambigua la separazione tra diretti ad uno scopo e non-diretti. Una traduzione non teleologica di una affermazione teleologica, d'altro canto, fa perdere un quid anche se prima facie è equivalente. La legittimità delle spiegazioni teleologiche avviene quando so tratta di conoscere la plasticità di sistemi organizzati in un certo modo e che sono diretti ad uno scopo. Questa conoscenza può provenire solo da due fonti:
1. sistema di generalizzazioni induttive ottenute da sistemi del tutto simili;
2. sistema di generalizzazioni deduttive alle quali si aggiungono meccanismi incorporati nel sistema.
La spiegazione teleologica ha una visuale imperdonabilmente ristretta poiché si riferisce sempre alla normalità per legittimarsi come spiegazione. Il che porta a introdurre elementi propri ed elementi anormali, o dice che è "accidentale" ciò che non rispetta le aspettative.

Struttura e funzione. Critica allo "slancio vitale"
Rimane aperto il dibattito tra struttura e funzione che alcuni reputano un dilemma. Quando si dice struttura-di in genere ci si riferisce all'
anatomia, perciò l'organizzazione spaziale di parti interconnesse. La funzione si dice di ciò in cui queste parti sono impegnate, la fisiologia. Per cui la struttura si riferisce allo spazio e la funzione allo spaziotempo. Dove sta perciò il dilemma?
Alcuni biologici teoretici sostengono che sia necessario uno "
slancio vitale" (Drisesch) che dirige l'evoluzione verso una struttura futura. Senza introdurre elementi inosservabili è lecito dire che l'anatomia non spiega la fisiologia senza il ricorso a leggi meccanico-causali: la struttura non determina la funzione logicamente.
Nagel conclude che l'analisi biologica, benché pregna di spiegazioni teleologiche, non differisce essenzialmente dalla spiegazione fisico-chimica e la metodologia non è una discriminante sufficiente.

Il punto di vista della biologia organismica
Il "vitalismo" in biologia è stato superato, alcuni biologi che si ritengono anti-vitalisti e al contempo anti-meccanicisti si ritrovano sotto l'etichetta "biologia organismica". Sostengono che le spiegazioni meccanicistiche non sono adeguate ai fenomeni biologici.
La tassonomia dei biologi potrebbe essere come segue:
- biologi meccanicisti: 1) credono che i fenomeni vitali si presentano a seconda di determinati ordini che sono le strutture spaziotemporali dei corpi. Tutti i biologi sono d'accordo con la presa di posizione meccanicista eccetto i vitalisti e gli indeterministi radicali. 2) tutti i fenomeni sono spiegabili dalla scienza meccanica e viventi sono "macchine". 3) i fenomeni vitali possono essere spiegati attraverso le leggi fisico-chimiche e i corpi sono "macchine fisico-chimiche".
- biologi organismici: le possibilità nono sono solo meccanicismo e vitalismo, tanto che né la teoria dell'evoluzione né quella dell'ereditarietà sono concetti fisico-chimici. La metodologia della ricerca fisico-chimica non è appropriata per i sistemi biologici e le spiegazioni derivanti da tali metodologie. Gli impianti teorici della fisica e della chimica non dicono niente del fenomeno osservato.
Gli esseri viventi non si danno in parti discrete ma in totalità e non è che dalle somme di conoscenze specifiche si ottiene la conoscenza della totalità (complessità), perciò l'organismo è di un ordine diverso dai processi fisico-chimici.
Gli organismi sono gerarchicamente organizzati e la componente fisico-chimica condiziona o limita i livelli più alti (survenienza), ma non sono esplicabili in termini fisico-chimici.


Condizioni formali di riduzione scientifica
Connettibilità: possibilità di traduzione di enti logici ('cellula', 'gene', ecc.) nel vocabolario di una scienza più generica.
Derivabilità: una espressione biologica può derivare logicamente da una classe di enunciati fisico-chimici.
Perciò al momento la biologia non è un capitolo della fisica, ma non lo è per principio. I biologi organismici non sostengono che la biologia è irriducibile alla fisica, ma sostengono che le espressioni logiche per descrivere i livelli superiori di organizzazione espresse nella lingua della fisica non hanno senso.
Gli organismi viventi sono poi sistemi aperti e la fisica non si occupa di tali sistemi, l'omeostasi organismo-ambiente è dinamica.



Peculiarità della biologia organismica
Woodger sostiene che occorre distinguere tra "entità chimiche" e "concetti chimici", sostiene inoltre che la composizione di un organismo di entità chimiche non sia sufficiente a descriverlo in concetti chimici.
Esistono due tipi di gerarchie: a) di divisione e b) di processo. Perciò i biologi organismici hanno ragione a sostenere che sia cruciale l'interdipendenza dell'intero organismo e hanno ragione a sostenere che una indagine dei livelli inferiori non sia sufficiente a conoscere l'organismo, ma ciò non rende impossibile la spiegazione meccanicista. Sebbene i biologi organismici dicano per partito preso "unità", "totalità indivisibile", ecc. anche loro studiano l'organismo in parti discrete attraverso il metodo astrattivo, concludiamo dicendo che l'approccio gerarchico sia corretto ma nulla impedisce una spiegazione meccanicista, nè una fisico-chimica dell'organismo.

Filosofia della scienza: avanzamenti nella pragmatica e il modello D-N-P di Railton

Concezioni della spiegazione
Durante la quarta decade sono presenti tre concezioni della spiegazione:
a)
modale [Mellore, 1976]; b) epistemica; c) ontica [Salmon, 1978]
La prima, la
modale, è basata sui modali (necessario, impossibile), ed è scarsamente compatibile con l'indeterminismo. I modali sono fisici quando sono considerati derivabili dalle leggi di natura o metafisici quando sono riferiti ad univeso non-empirico. Per venire incontro ai fenomeni irriducibilmente statistici si è proposto l'uso di "gradi di necessità" e di implicazione parziale.
La concezione
epistemica vede la spiegazione come un mutamento dello stato epistemico e può essere a sua volta espressa in tre modalità:
i)
inferenziale: poggia sugli enunciati nomici o leggi e la spiegazione è un'inferenza che deriva un fatto particolare o una legge. Nel caso particolare l'evento era atteso per aspettabilità nomica (Hempel). Railton però nel 1980 mostra come aspettabilità e nomicità sono due concetti distinti, ma ad ogni modo si fa ricorso a regolarità nomiche come principio logico.
ii) t
eorico-informativa: la spiegazione si misura nell'efficacia nel migliorare il potere di previsione. Questa modalità è quella che preposto la strada dell'unificazionismo.
iii)
erotetica: qui non vi è nessuna differenza tra descrizione e spiegazione, ma dipende solo dal predicamento e dal contesto. La logica della domanda o erotetica è alla base del pragmatismo.
La concezione
ontica poggia sui controfattuali e vede la spiegazione come un dispositivo linguistico che svela relazioni causali esistenti.
Posizioni epistemologiche
Strumentalismo: la scienza non ha nessun potere esplicativo e le teorie possono contenere anche entità non osservabili – di cui nega l'esistenza – purché la teoria predica. Perciò per lo strumentalismo la scienza è lo strumento delle previsioni e della tecnologia.Realismo: lo scopo della scienza è lo svelare i meccanismi, perciò può spiegare. Vi è compatibilità tra empirisimo e realismo e vi è differenza tra conoscenze descrittive di fatti osservabili e non osservabili.Antirealismo: detto anche empirismo costruttivo, le entità non osservabili non vengono refutate né accettate, ma rimangono una questione aperta. Il criterio di accettazione di una teoria è il suo essere empiricamente adeguata, non c'è una richiesta di verità. La scienza perciò non farebbe altro che creare modelli e non scoprirebbe.
La teoria di Van Fraassen
Sicuramente la teoria pragmatica più articolata è quella di
Van Fraassen, che con il suo "Scientific Image" è tuttora un punto di riferimento per tale concezione. Per l'autore la spiegazione è una relazione tra fatto, teoria e contesto. Per una spiegazione scientifica la teoria deve essere scientifica.
La costituzione della domanda-perché è per Van Fraassen
Q=<P,X,R> dove P è il tema, X la classe antitesi, R la relazione di rilevanza. Il contesto determina la X adeguata e le presupposizioni vincolano la risposta A: P è vera, X è falsa, esiste una A vera con R<P,X>.
R è una relazione di causa-effetto e il contesto contiene uno
sfondo K di conoscenze, se K rifiuta la presupposizione allora non-A.
I criteri di valutazione sono i) K permette A; ii) P migliore di X; iii) P migliore, A favorisce P, A è Rp.
L'esempio di Salmon sono l'astrologia e l'assassinio di Kennedy.
La domanda chiave di Van Fraassen all'empirismo è "l'evenidenza empirica riesca a confermare o confutare l'esistenza di entità non direttamente osservabili?" Secondo Salmano è positiva e fa l'esempio di a) Oxford English Dictionary e occhiali; b) Hacking e il suo studio sul microscopio. Suddivide in a) osservazione diretta (data dai sensi) e b) osservazione indiretta (data da strumenti tecnici). Secondo Van Fraassen la risposta è negativa e sostiene che l'uso di entità non osservabili provenga dal fatto che ci aspettiamo una causa C all'evento E (Hume).
Le interpretazioni di probabilità con Van Fraassen salgono a tre, abbiamo la frequentista (Salmon), propensista (Coffa) e soggettivista (Van Fraassen).
Secondo Salmon, Van Fraassen non risolve il problema della rilevanza poiché non viene discussa la causalità e questa (per l'approccio ontico) non si esaurisce nella pragmatica: la causalità è qualcosa che accade e la relazione di rilevanza concerne (anche) la causa oltre che il contesto.

Teoria illocutoria della spiegazione
Achinstein in The nature of explanation (1983) analizza la lingua inglese e 'spiegazione' viene considerata o come "processo" o come "prodotto". Il processo è lo spiegare e il prodotto è il contenuto o spiegazione. La spiegazione necessita di intenzionalità. Per le teorie pragmatiche è stato finora importante più il processo che il prodotto, il quale non dipende solo dalla lingua ma anche dall'intenzione.
Una spiegazione è <x,y> dove x è una proposizione è y un'azione linguistica. Per Achinstein la spiegazione sussume la comprensione come necessaria e sufficiente (A vuole far comprendere S a B). Perciò occorre distinguere tra bontà e correttezza della spiegazione per cui una spiegazione corretta potrebbe non essere buona o viceversa. Al contempo spiegare vuol dire produrre un contenuto che sia conforme ad un modello (D-N, microstruttura, ecc.) ossia che segua alcune "istruzioni". Le istruzioni non sono universali ma dipendono dalla scuola e dal sapere scientifico.
I requisiti che hanno ispirato i modelli sono:
A) NES: nessun enunciato singolare può implicare l'explanandum. Se x allora y, se x, y, z allora a non sono esplicativi idiografici.
B) Requisito a priori: l'explanans deve essere formulato con considerazioni ritenute vere a priori.

Teoria nomotetica-meccanicista D-N-P di Railton
Secondo Railton (1978), criticando I-S, dice che l'elemento principale della spiegazione è la comprensione del meccanismo stocastico in virtù dell'accadere dell'evento e non un qualcosa che possa rendere l'evento nomicamente aspettabile. Railton perciò elabora un modello nomologico-dedutto per la spiegazione statistica o D-N-P dove probabilità è interpretata come propensità.
Lo forma è la seguente:

a) generalizzazione nomica (intrinsecamente statistica)
b) condizione antecedente
______________________
c) evento probabilistico

La necessità è quella di una nota parentetica che conferma l'accadere poiché la spiegazione non doveva fornire aspettabilità nomica, ma spiega perché l'evento (ad esempio il decadimento dell'uranio) si è verificato in modo improbabile.
Per la concezione ontica, perciò anche per Railton, il mondo è una macchina ordinata da connessioni nomiche, in cui la spiegazione svela i meccanismi deterministici e indeterministici dell'accadere di E e non la sua aspettabilità nomica. Senza un relazione causale non si dà spiegazione.
Railton inoltre propone i concetti di "testo esplicativo ideale" e "informazione esplicativa". Il primo è un tessuto nomico esposto in modo rilevante, il secondo permette di completare il testo esplicativo ideale. Esiste una differenza tra "salienza", che è dovuta all'interesse, e "rilevanza", che è data dalla causalità. Esistono tre tipi di spiegazione ora: D-N e D-N-P che fanno riferimento a cause e strutturale che fa riferimento alla geometria e perciò non causale.

Deduttivismo
La tradizione ocidentale che va da Aristotele e finisce con Hempel sostiene che le spiegazioni sono argomenti deduttivi. Hempel sostiene che esistono spiegazioni induttive e/o statistiche.
Con la meccanica quantistica la necessità si è fatta impellente e non pare più possibile accettare il determinismo, ma non è necessario abbandonare il deduttivismo purché si ammetta che possono darsi deduzioni statistiche.
Railton (che non è deduttivista) nel modello D-N-P illustra che la legge generale pone la possibilità di dedurre e che l'addendum parentetico conferma l'evento E dell'explandum come avvenuto.
Watkins (1984) propone una analogia tra fisica classica e fisica quantistica dove per la prima date le leggi a certe condizioni è necessario che E, mentre a certe condizioni nella seconda viene però alterata la probabilità che E ("legge d'acciaio" della probabilità) e ciò che si spiega è il perché di quella probabilità. Ma qual è il significato fisico della probabilità?

Leggi e obiezioni fondamentali
Il primo principio delle spiegazioni e delle teorie scientifiche in generale è che dato un set C di condizioni avverrà uno ed un solo evento E (Principio I). Le svolte scientifiche e l'uso costitutivo della statistica ha portato i filosofi ad abbandonare il Principio I.
Una teoria statistica prevede contemporaneamente perché un evento E è probabile e improbabile non-E, e ciò è detto Principio di simmetria, perciò si accetta questo o il Principio I. In altre parole dato C viene spiegato sia E sia non-E in modo probabilistico.


Stato attuale e agenda
I filosofi della scienza condividono che la scienza possa spiegare e perciò comprendere il mondo.
L'opinione ricevuta non è più accettata in toto e si hanno sostenitori di I-S e anti I-S (deduttivisti).
Oltre ai deduttivisti, pragmatisti e meccanicistici si aggiunge l'approccio "unificazionista" (Kitcher, Watkins) che può essere visto come top-down e consono allo sviluppo della concezione epistemica, mentre quello "meccanicistico-causale" va bottom-up.
È sorta la concezione ontica che attraverso "causalità" e "rilevanza statistica" sostiene che le spiegazioni sono oggettivi rapporti tra enti al di là di considerazioni pragmatiche.
Il peso della pragmatica è ridotto ed è possibile considerare unificazionismo e meccanicismo come due momenti della spiegazione che dipendono dal contesto pragmatico.
Per l'agenda futura ai filosofi della spiegazione va chiesto:
i) cos'è una legge?
ii) cos'è una causa?
Iii) Cos'è una spiegazione in meccanica quantistica e come si spiega una microstruttura?



Filosofia della scienza: la concezione ontica della spiegazione e l'avvio dell'unificazionismo

Teoria disposizionale di Coffa
Secondo Coffa il problema dell'ambiguità è il problema della classe di riferimento che sorge nella visione frequentista della probabilità riferita ai casi singoli. Considerando la probabilità come propensità alllora si tratterebbe di un attributo fisico di eventi.
Per tutte le spiegazioni Coffa propone di inserire la "clausola delle condizioni limite"; nelle spiegazioni induttive la clausola fa quello che fa RMS per Hempel e quello che fa l'omogeneità di Salmon.
Appare così la
concezione ontica per cui i) la spiegazione è là fuori nel mondo ed è composta dalle condizioni (fatti) che hanno permesso l'avveramento di un certo altro fatto o ii) la spiegazione è un testo di enunciati che descrivono dei fatti.
La propensità si basa sul concetto di "sistema probabilistico" (
chanche setup). La propensità non reggerebbe la probabilità negativa.
Spiegazione ed evidenza
Rescher (1958) sostiene l'anti-simmetria di spiegazione e previsione. Ha una posizione epistemica (spiegazione=argomento) e esistono argomenti esplicativi ed argomenti predittivi la cui distinzione è il grado di probabilità della conclusione. Ciò è un fatto di natura e non una verità logica.
Rescher (1963) introduce la nozione di sistema a stati discreti e dimostra come sia possibile costruire sistemi in cui sia possibile predire e retrodire e altri in cui non è possibile né l'uno né l'altro. Secondo l'opinione ricevuta le premesse di D-N sono evidenze e Rescher introduce tre tipi di evidenze: a) evidenza di presupposizione: rende l'ipotesi più probabile della negazione; b) evidenza di sostegno: forma di rilevanza che rende l'ipotesi più probabile quando è disponibile; c) evidenza di conferma: quando valgono le due evidenze per l'ipotesi.
Per dire che un enunciato è una legge non solo deve reggere i modali e sostenere i controfattuali ma deve andare oltre l'evidenza empirica, con ciò vuol dire che le leggi sono generalizzazioni su base epistemica, dipende cioè dalla mente.
La spiegazione delle leggi
Nella famosa "nota 33" dello storico articolo di Hempel e Oppenheim è stato sollevato l'imbarazzo per non saper produrre un D-N per leggi. Non sarebbe stato possibile distinguere da una derivazione di leggi più generali e una legge irrilevante.
Friedman (1974) sostiene che la scienza spiega attraverso unificazione: la teoria cinetica spiega il comportamento di pianeti soddisfano le leggi di Keplero che quelle di Galielo. La scienza aumenta la nostra comprensione del mondo riducendo il numero di fenomeni indipendenti che dobbiamo accettare come fatti bruti. La nozione di "accettazione" è centra nella teoria di Friedman. Esiste un insieme K di enunciati che sono leggi accettate dalla comunità scientifica ed è chiuso deduttivamente, perciò ogni enunciato legisimile dovrà essere accettabile indipendentemente dagli altri. Un legisimile è indipendente da un altro se non ci sono motivi sufficienti per cui il primo ci farebbe accettare il secondo.
Per enumerare i legisimili propone la "partizione" di un enunciato tali che i Z enunciati sono equivalenti ad S ma ogni enunciato "k-atomico" di S è accettabile indipendentemente.
L'articolo di Friedman è stato severamente criticato da Salmon e Kitcher e viene rigettata la tesi che la spiegazione è una unificazione e che in generale l'unificazione sia l'abiettivo della scienza, ma l'unficazione porta ad una maggiore comprensione scientifica del mondo. Ora il quadrante nomotetico di D-N ha un candidato.

È vero che le spiegazioni sono argomenti?
Jeffrey nel 1969 spiega perché le spiegazioni statistiche – fatta eccezione per alcuni casi limite – non sono argomenti. Salmon è della stessa idea e dopo un periodo estremista di negazione di identità tra spiegazione ed argomento giunge alla tesi per cui alcune spiegazioni non sono argomenti.
Nella spiegazione deduttiva l'aggiunta nelle premesse di argomenti irrilevanti non pregiudica la conclusione, mentre ciò non accade per le spiegazioni statistiche in cui una premessa irrilevante conduce a conclusioni contradditorie (RMS ed evidenza totale doveva impedire il problema).
Salmon (1977) propone domande per imbarazzare i sostenitori dell'opinione ricevuta:
a) perché una spiegazione D-N è valida anche se introduce premesse irrilevanti, ma I-S non lo permette?
b) è possibile spiegare eventi poco probabili (indeterminismo)?
c) perché le spiegazioni devono essere soggette ad assimetria temporale mentre gli argomenti no?
Salmon conclude che la causalità è un concetto centrale nella spiegazione.


Sfida della causalità
Hume ha mostrato come il legame causale sia per priorità o per contiguità o per congiunzione costante. Ma quali sono le congiunzioni tra cause intermedie ed effetti?
La relatività sostiene che c è la velocità massima in questo universo, ma le ombre possono superare c e quindi non dobbiamo reputarle cose?
La luce proiettata su un muro può superare arbitrariamente c. Se si potesse inviare un messaggio superando c il 'principio di simultaneità della relatività' sarebbe violato.
Salmon propone la differenza tra 'processi causali' e 'pseudo-processi'. La differenza tra evento e processo starebbe nella durata cronologica: l'esplosione di una supernova è un evento, il viaggio di un neutrino invece un processo. Perciò un processo o uno pseudo-processo saranno sempre uniformi e continui. La differenza tra i due è nella capacità di trasmettere informazione o nella propagazione del marchio. Solo i processi costituiscono causa, questi propagano la loro struttura.
Salmon sostiene la teoria in-in di Russel che sarebbe la soluzione al paradosso di Zenone per cui il moto sarebbe una relazione tra punti spaziali e attimi temporali: muoversi è occupare posizioni diversi in momenti temporali successivi.

Spiegazioni teleologiche e funzionali
La filosofia della biologia si sviluppa dopo un lungo periodo di silenzio. La spiegazione funzionale torna alla ribalta nella riflessione filosofica.
Wright (1972) sviluppa una teoria dell'eziologia della conseguenza che permette di dare una connotazione meccanico-causale alle spiegazioni funzionali considerando la funzione come trattenimento delle conseguenze che quella funzione ha avuto.
Bigelow e Pargetter (1987) hanno un'orientamento verso la propensità e la consecutio cronologica maggiore rispetto a Wright per cui un ente ha una certa disposizione a fare x. La differenza principale tra Wright e Bigelow & Pargetter è che per i secondi una funzione è tale sin dal primo momento della sua comparsa.
Nagel (1977) contesta gli equivalenti funzionali di Hempel, date le circostanze ideografiche solo quella funzione è necessaria e sufficiente al sistema. Per Wright l'attribuzione funzionale non è altro che la risposta alla domanda perché è lì e siano legittime perciò le spiegazioni funzionali.

Filosofia della scienza: la spiegazione R-S

Modello di rilevanza statistica S-R
Hempel nel 1968 apporta modifiche tecniche a RMS e crea RMS*, con questo ritira la condizione di alta probabilità per I-S.
Greeno (1970) produce una teoria sulla spiegazione scientifica basata sull
'informatività, quantitativamente misurabile (quantità di informazione trasmessa).
Il modello I-S viene accolto con i) strategie di difesa; ii) ricerca di alternative; iii) refutazione di I-S.
Salmon nel tentativo di creare un modello alternativo a I-S si accorge che per un modello basato sulla rilevanza statistiva occorrono una probabilità iniziale ed una finale, non un solo valore r.
Il modello di Salmon necessita di alcune definizioni:
a) una
partizione di una classe F è una classe di sottoinsiemi di F mutualmente escludentesi ed esautstivi.
b) ogni sottoinsieme è una
cella della partizione F. Una partizione è rilevante per un attributo G se la probabilità di G assume un valore diverso per ogni cella della partizione.
c) una classe F è
omogena rispetto a G se non esistono partizioni rilevanti di essa.
d) una classe F è
epistemicamente omogenea se non sappiamo definire partizioni rilevanti di essa.
e) una classe F è
oggettivamente omogenea se in modo indipendente dalle nostre conoscenze è impossibile definire una partizione rilevante di G.
f) una
partizione rilevante omogenea è una partezione rilevante in cui ogni cella è omogenea, anche questa si distinguono tra epistemiche e oggettive.
Le proprietà di R-S sono:
a) una volta stabilita una partizione rilevante oggettivamente omogenea per una particolare classe di riferimento sono stati presi in considerazione tutti i fattori rilevanti, cioè sono state create tutte le partizioni rilevanti.
b) una partizione rilevante ammette solo fattori rilevanti, poiché ogni cella ha una probabilità diversa di G.
L'esempio è quello del furto d'auto da parte di un adolescente americano.
Il modello S-R prevede una mappa probabilistica dalla quale dedurre dal modo che segue: "perché A ha l'attributo G? Perché A appartiene a X".
Relazione di adombramento (screening off)
Esempio temporale S, pressione A e barometro B: B è rilevante rispetto ad S in presenza di A, A mette in ombra B (e non rientra nella spiegazione).
Per I-S la spiegazione è un argomento induttivo che conferisce ad E alta probabilità.
Per R-S la spiegazione di E è un assemblamento di fatti statisticamente rilevanti rispetto a ciò che deve essere spiegato, indipendentemente dal grado di probabilità di E.
Entrambi i modelli rientrano nell'etichetta di modello a legge di copertura.


Problemi legati alla "specificità massimale"
Hempel per introdurre RMS e far fronte agli inconvenienti di I-S, introduce la "specificità massimale" e il contesto epistemico. Coffa nel 1974 espone le difficoltà sull'ambiguità di I-S e chiama P(G|F)=r; Fb=[r];Gb modello ingenuo di I-S. Secondo Coffa il problema dell'ambiguità di risolve in modo semplice: dato che la spiegazioni spiegano ciò che accade, la spiegazione induttiva corretta è quella la cui conclusione si avvera. Hempel, secondo Coffa, non voleva risolvere il problema dell'incoerenza induttiva.
Il problema in realtà ha a che fare con la classe di riferimento nato nell'approccio frequentista della probabilità (Venn, Reichebach). Assegnare una probabilità ad un evento singolo significa associare la probabilità di classi di riferimento omogenee.
Salmon e Coffa tentano in modo diverso di evitare la relativizzazione al contesto epistemico delle spiegazioni statistiche. Coffa suddivide tra concetti epistemici e non-epistemici. Hempel conclude che il tipo di "epistemico" che è I-S non è lo stesso di D-N, ma piuttosto è non confermativo: non esiste una spiegazione induttiva vera. Non ci sono cose del mondo che spiegano induttivamente fatti. Coffa suggerisce di considerare la probabilità propensità per evitare l'impasse e fa l'esempio del filosofo texano.
Per un determinista la spiegazione I-S non sarebbe una spiegazione o una spiegazione deduttiva basato su un entimema, non avrebbe nemmeno senso "classe di riferimento omogenea" perché allora si parlerebbe di legge. Hempel ritiene che classe di riferimento omogenea non sia nemmeno intelligibile.
In P(X|Y) X è detto classe di riferimento e Y classe d'attributo; la classe di riferimento è detta massimamente specifica per l'attributo G se la classe conoscenze K non permetta una partizione rilevante di F. Salmon aggiunge una clausola che limita temporalmente I-S al precedere di E, ma Hempel obietterebbe.
Dunque per il determinismo I-S non esiste, mentre per l'indeterminismo esistono spiegazioni irriducibilmente statistiche.

Filosofia della scienza: la spiegazione statistica

La spiegazione statistica
Rinunciare alla statistica e disdegnare premessi sufficienti ma non necessarie, secondo
Rescher (1962) vorrebbe dire eliminare una buona fetta della letteratura scientifica. Rescher introduce la stochastic revolution della scienza. Hempel in "Deductive-nomological versus statistical explanation" si concentra sull'ambiguità della spiegazione statistica e propone due modelli.
Hempel distingue le
leggi statistiche – generalizzazioni fattuali espresse come probabilità – e le leggi di probabilità – assiomi o teoremi della teoria della probabilità. Non riesce nemmeno in questa occasione a definire 'legge di natura' poiché il linguaggio formale utilizzato non conteneva espressioni nemeriche per rappresentare le leggi statistiche. Inoltre si hanno almeno due interpretazioni di 'probabilità' in quel periodo: quella propensista per cui "F ha la propensità P ad aessere G" e quella frequentista "Un certo x di F sono anche G".
Il
modello I-S o induttivo statistico, dove con 'induttivo' non si intende che l'inferenza che porta a una spiegazione di questo tipo sia l'induzione ma che induttivi siano gli argomenti legisimili, include necessariamente una legge statistica e non è possibile dedurre l'explanandum dall'explanans. Hempel perciò richiede "alta probabilità induttiva" del legisimile.
La forma di I-S è la seguente
P(G|F)=r       legge statistica dove r è il grado di probabilità che deve essere prossimo ad 1
Fb
=====[r]
Gb

L'esempio è quello dell'infezione da streptococchi e la penicillina: Johns guarisce velocemente da una infezione da streptococchi se trattato con penicillina. Osservando lo forma di I-S si traduce come "la probabilità di guarire G con infezione da streptococchi F e con cura di penicillina H è r"; l'infezione di Johns è stata trattata con penicillina; dunque Johns può guarire con probabilità r".
Le cose si complicano se il ceppo è resistente alla penicillina e avviene così la cosiddetta ambiguità di I-S. Nella logica deduttiva accade che le conclusioni non si possono contraddire, mentre nella logica induttiva forme di premesse compatibili possono portare a conclusioni tra lo contraddittorie.
Si assiste così al principio di indebolimento della logica deduttiva: aggiungendo ulteriori premesse ad argomenti deduttivi validi gli argomenti deduttivi rimangono validi. Nella teoria della probabilità non esiste niente di simile: un argomento induttivo valido può avere un basso grado di conferma dopo avere aggiunto ulteriori premesse.
La richiesta di Hempel e degli studiosi di logica induttiva è l'evidenza totale. Tale requisito significa che allo stato attuale della conoscenza non è possibile aggiungere nessuna evidenza ulteriore.


Il requisito di specificità massimale e la relazione di rilevanza
Hempel per I-S propone il requisito di specificità massimale (RMS) per cui devono essere soddisfatte le seguenti condizioni:
se s·k → b e b appartiene a F1 e F1 è una sottoclasse di F allora s·k deve implicare un enunciato che specifica la probabilità di G in F1.
P(G|F1)=r1 dunque r=r1 a meno che P(G|F1) non sia un teorema della teoria della probabilità.
Il concetto di I-S è
relativo alla situazione epistemica presentata da una classe di conoscenze K di enunciati accettabili. Nella spiegazione D-N non vi è niente di simile in quanto RMS è automaticamente soddisfatto.
Le condizioni per avere una spiegazione perciò cambiano:
1.
La spiegazione è un argomento che ha forma logica corretta
2.
L'explanans contiene almeno una legge
3.
La legge deve contenere elementi empirici
4.
Gli enunciati dell'explanans devono essere veri
5.
RMS
Come visto precedentemente da 1 a 3 abbiamo le condizioni logiche che sono per sé una spiegazione potenziale; la quarta condizione come detto è empirica e fornisce una spiegazione reale assieme alla condizione 5 che però è la
condizione di rilevanza.
Controesempi mostrati sono quelli della
vitamina C e della terapia psicologica. In questi esempi viene notato come spiegazioni I-S possano essere inefficaci nello spiegare se viene richiesta solo alta probabilità induttiva, per cui Hempel propone la rilevanza statistica.

Filosofia della scienza: la nascita della pragmatica della spiegazione

La critica di Scriven e il secondo Wittgenstein: la nascita della pragmatica
Scriven nel 1958 critica il modello D-N in un articolo dove mostra come tutte le premesse e gli assunti del modello siano deboli e contestabili. In genere si registrano tre atteggiamenti rispetto al modello D-N: a) positivi: tesi a perfezionare le carenze tecniche; b) costruttivi: condividono la linea del modello D-N e cercano di perfezionare l'opinione ricevuta; c) profende obiezioni, specie rivolte all'empirismo logico. Scriven appartiene a questa terza corrente.
Nel frattempo
Nagel (1961) pubblica il monumentale "The structure of science" dove mostra i modelli esplicativi di diverse discipline scientifiche e l'anno dopo Hempel pubblica l'articolo che inizia lo studio delle spiegazioni probabilistiche. Gli atenei anglofoni aprono dipartimenti di filosofia della scienza.
Se l'empirismo logico inizia con il
Tracatus di Wittengstein, la seconda importante indagine nel campo della filosofia della spiegazione nasce con le Ricerche filosofiche del 1963. Le tesi contenute nel volume influenzano Oxford e Cambridge e si instaura un conflitto tra filosofi del linguaggio formale o artificiale (filosofia analitica ed empirismo logico) e filosofi del linguaggio ordinario. Stante la nuova linea presa Wittgenstein non è più sufficiente la a) sintassi – relazione tra simboli; b) semantica – relazioni tra simboli e oggetti (designazione, significato, verità); è necessaria anche c) pragmatica – uso dei simboli da parte degli agenti della comunicazione (contesto, scopo, presupposizioni). L'empirismo logico si rifà agli studi di (a) e (b), così nasce la pragmatica della spiegazione e si assumono obiezioni di natura linguistica all'opinione ricevuta.
Hempel ritiene corretta l'impostazione pragmatista, ma sostiene che una spiegazione parziale in cui sono ammesse le ovvietà, se estesa, conterrebbe almeno una legge di copertura. Scriven sostiene che le spiegazioni ideografiche composte solo di fatti particolari (condizioni C) all'explanans sono soddisfacenti e la legge non spiega ma giustifica la spiegazione.

L'approccio linguistico di Bromberger
Bromberger pubblica nel 1962 "An approach to explanation" e propone un'analisi linguistica della spiegazione. La forma linguistica da lui individuata è "AS e BW" dove a A e B sono persone, S per forma temporale di 'spiegare' e W per domanda indiretta.
Stante la classificazione di Vendler 'spiegare' appartiene alle forme che esprimono compimento – le altre sono attività, stato e raggiungimento.
"A ha spiegato a B perché avremmo potuto evitare la seconda guerra mondiale", quando dobbiamo enunciare lo 'spiegare' questo appare sempre in una forma compiuta nel passato. W (come, quando, dove, quanto, chi, perché) predispone la risposta (effetto "filtro"), ma per avere una spiegazione deve darsi:
i)
predicamento-p: S è in predicamento-p rispetto alla domanda Q se Q ammette una risposta esatta, ma A non riesce a pensare ad obiezioni decisive che possano confutare la risposta.
ii)
predicamento-b: S è in predicamento-b rispetto a Q se la domanda ammette una risposta esatta, ma va oltre a quello che B può concepire e S è incomponibile.
Dopo aver generato uno schema pragmatico della spiegazione lo schema diventa "AS e BX" dove X sta per entità linguistica diversa dalla domanda. Bromberger assume che b) il tutore è una persona razionale che conosce la risposta; d) il tutotre esprime fatti propedeutici al capire la spiegazione da parte del pupillo; e) il tutore rimuove dal predicamento il pupillo.
Secondo Salmon l'approccio di Bromberger può essere pre-hempeliano. Nel 1966 Bromberger si chiede esplicitamente che cos'è una risposta ad una domanda-perché che richiede una spiegazione. Bromberger rifiuta la necessità di leggi di copertura e illustra come la risposta può annullare la domanda (vedere anche Van Fraassen) e analizza le leggi generali e le loro eccezioni.
1) legge generale – legisimile;
2) legge generale abnormica – congiunzione di leggi abnormiche speciali;
3) legge abnormica speciale – legisimile con clausola iniziale "a meno che";
4) predicamento antinomico di una legge abnormica;
5) predicamento antinomico di una legge abnormica speciale;
6) completamento di una regola generale da parte di una legge abnormica.
Per Bromberger la spiegazione è una richiesta di generalizzazione di una eccezione.

Controesempi a D-N

In primo luogo rifiutare che le condizioni antecedenti nell'explanans siano antecedenti solo logicamente e non temporalmente è visto con sospetto da molti filosofi che vorrebbero questo requisito.
L'esempio è quello dell'eclisse, per cui date le leggi di Newton L, la posizione di Terra, Sole e Luna C queste possono essere precedenti o successive temporalmente all'eclisse. Salmon ritiene che una spiegazione di questo tipo è insoddisfacente, ma Hempel nega nuovamente la necessità di vincoli cronologici.
Ci si aspetta che la spiegazione riveli la causa di E, ma Hempel sostiene che D-N permette spiegazioni causali, ma non tutte le spiegazioni lo sono (indeterminismo).
Gli esempi sono quello della bandiera, per la quale la lunghezza dell'ombra non spiega la lunghezza dell'asta ma semmai ci aspettiamo che sia il contrario con un nesso causale; l'esempio del barometro, per cui ci si aspetta che l'abbassamento delle lancette del barometro causino/spieghino il temporale, ma il cambiamento atmosferico spiega entrambi i fenomeni; l'esempio della luna e delle maree, per i marinai che non conoscevano le leggi di Newton era evidente che la posizione della luna influisce sull'altezza delle maree, ma non potevano spiegarlo prima di aver compreso il legame causale.
Il terzo punto contestato è quello della simmetria tra spiegazione e previsione. Poiché D-N fa uso di leggi, il criterio con cui si deduce l'evento è l'aspettabilità nomica. Non imponendo vincoli temporali D-N permette di predire e retrodire e spiegare anche se C e E sono simultanei. Hempel è stato molto chiaro rispetto alla sua posizione: i) ogni spiegazione D-N è una previsione ed ii) ogni previsione non statistica è una spiegazione. Secondo Salmon questa tesi può essere intesa in modo ristretto (valevole solo per D-N) ed ampio (per D-N e I-S). Scriven (1959) attacca la tesi (i) con l'argomento della biologia evoluzionistica ma vale solo per la tesi ampia che include la spiegazione statistico-induttiva.
L'esempio è quello della sifilide e paresi: la paresi è una fase terziaria della sifilide se la primaria e la secondaria non sono trattate. Solo il 25% dei sifilitici va incontro alla paresi. Si deve prevedere la paresi?
Sono inoltre note nella scienza previsioni accettate senza legge di copertura ma solo condizioni antecedenti.
Il problema attaccato in D-N è l'essere carente nelle condizioni della rilevanza esplicativa. L'esempio è quello del sale stregato, per cui viene messo del sale in acqua e recitata una formula magica, il sale si scioglie; l'esempio della pillola anticoncezionale: John prende la pillola della moglie e non rimane gravido dopo un rapporto sessuale.