[av_textblock size=” font_color=” color=” av-medium-font-size=” av-small-font-size=” av-mini-font-size=” av_uid=’av-k8d9xhav’ admin_preview_bg=”]
Coloro cui sfugge completamente l’idea che e’ possibile aver torto non possono imparare nulla,
Confirmation Bias:Pregiudizio di conferma
Il Confirmation Bias, secondo la definizione dello psicologo Raymond Nickerson, è :
la ricerca o l’interpretazione di prove in modo che siano favorevoli a esistenti credenze, aspettative o ipotesi [del soggetto interpretante].
Si tratta di uno dei pregiudizi più studiati dalla psicologia cognitiva perchè non risparmia nessuno: sebbene vi siano differenze individuali, sembra che nessuno ne sia esente indipendentemente da fattori quali intelligenza o apertura mentale. Tutti noi tendiamo a cercare prove ed evidenze a sostegno delle nostre convinzioni e a rigettare quelle contrarie ad esse.
Si tratta di una forma di autoinganno per il quale sono state proposte diverse cause, tra le quali la difesa dell’identità personale: difendiamo le idee, i principi e i modi di vedere che sono, magari da molti anni, alla base della nostra identità, anche perchè le nostre idee sono probabilmente quelle del gruppo sociale nel quale ci siamo formati che, se rigettate, danneggerebbero il nostro senso di appartenenza. Una nuova ipotesi, di natura evoluzionistica, è stata presentata dagli psicologi Hugo Mercier e Dan Sperber
.
Secondo Nickerson, le persone restringono la loro attenzione solo alle osservazioni (o informazioni) favorevoli alle loro convinzioni e rifiutano di prendere in considerazione osservazioni (o informazioni) alternative. In particolare, le persone vanno alla ricerca di informazioni che siano coerenti con una sola ipotesi (la loro!) ma non diagnostiche rispetto ad essa. Un’informazione/osservazione viene definita diagnostica (rispetto a una particolare ipotesi) quando è coerente con quell’ipotesi ma non lo è con le ipotesi concorrenti.
Come ha fatto notare lo psicologo K.E. Stanovich et Al. :
[Il Confirmation Bias] è una notevole difficoltà cognitiva, dato che un tema ricorrente nella letteratura del pensiero critico è che i pensatori critici dovrebbero essere in grado di separare le loro credenze ed opinioni pregresse dalla valutazione di prove ed argomenti.
Stanovich ha inoltre evidenziato la differenza tra razionalità e intelligenza che si esprime in molti comportamenti irrazionali anche nelle persone intelligenti, infatti anche queste, spesso, non posseggono quell’insieme di competenze (regole cognitive, strategie, sistemi di credenza) che l’essere umano impiega per prendere decisioni. Scrive Stanovich (p.356):
Mentre è vero che gli individui più intelligenti imparano più di quelli meno intelligenti, molta conoscenza (e molti atteggiamenti di pensiero) indispensabili per la razionalità vengono appresi piuttosto tardi nella vita. L’insegnamento esplicito di queste conoscenze non è uniforme nei curriculum scolastici di ogni livello. Il fatto che questi principi vengano insegnati in modo contraddittorio e incoerente ha come conseguenza che molte persone intelligenti non apprendano i principi del pensiero critico.
Esistono molte evidenze sperimentali del confirmation bias e Nickerson ne espone alcune, di natura storica, nel suo studio:
-
Caccia alle streghe (p.190): dal 15° al 17° secolo in Europa occidentale la gente credeva così fortemente nell’esistenza delle streghe che certi tribunali avevano delle leggi speciali per questi casi. Ci furono molti orribili casi di confirmation bias (si stima che solo in Inghilterra nel 17° secolo furono giustiziate più di 40.000 persone).
-
Politica (p.191): una volta che una decisione politica viene adottata e implementata da un Governo tutte le successive attività si finalizzano alla giustificazione di quella decisione.
-
Pregiudizi medici (p.192): la medicina moderna empirica è un’attitudine recente; le conoscenze mediche sono rimaste stagnanti per più di 1500 anni e la tendenza prevalente era quella di concentrarsi sui casi positivi, cioè su casi in cui alle cure è seguito un recupero fisico. La scoperta che alcune malattie hanno una storia naturale e da esse in molti casi si guarisce senza alcun trattamento medico è una scoperta molto recente.
-
Procedimenti giudiziari (p.193): in questo contesto venne fatto il tentativo di disaccoppiare la fase di acquisizione delle prove da quella dell’emissione della sentenza per evitare che i pregiudizi influenzassero la ricerca delle prove.
-
Metodo scientifico (p.194): la capacità di resistere al confirmation bias è una proprietà che distingue il pensiero scientifico dal pensiero ordinario: in generale gli scienziati, dopo aver trovato prove convincenti a favore delle loro ipotesi scientifiche si dedicavano a cercarne altre che le confutavano. L’insistenza della scienza, come istituzione, nella verifica empirica delle ipotesi scientifiche con metodi pubblicamente accessibili ha assicurato la sua relativa indipendenza dai pregiudizi dei singoli scienziati.
Una descrizione esaustiva del pregiudizio, dal punto di vista psicologico, la dà lo psicoanalista Giovanni Jervis su la Treccani.it, e questa è la sua definizione sintetica:
Alla lettera e in senso generale il pregiudizio è un giudizio anticipato rispetto alla valutazione dei fatti. Risponde a questa accezione l’uso comune del termine in locuzioni quali “esaminare un problema senza pregiudizi”, o “essere spregiudicati”. In senso più tecnico e restrittivo il vocabolo serve invece a designare, e inscindibilmente a connotare in senso negativo, qualsiasi atteggiamento sfavorevole o ostile, in particolare quando esso presenti, oltre che caratteri di superficialità e indebita generalizzazione (v. Allport, 1954), anche caratteristiche di rigidità, cioè quando implichi il rifiuto di metterne in dubbio la fondatezza e la resistenza a verificarne la pertinenza e la coerenza.
Nel 1960 lo psicologo Peter Wason tentò di dimostrare con un esperimento (La regola 2-4-6) che il confirmation bias è uno dei maggiori ostacoli anche per la ricerca scientifica. Infatti egli si rese conto che le persone, di fronte a un’ipotesi da verificare, invece di cercare di falsificarla (ved.box a fianco) tendono a confermarla.
Il Test 2-4-6 di Wason consiste nel sottoporre a una persona una sequenza di tre numeri (2-4-6) e chiederle di scoprire la regola che guida la relazione tra i numeri. I partecipanti vengono incoraggiati a testare la loro ipotesi proponendo triplette di numeri. Dopo ogni tripletta lo sperimentatore risponde SI o NO alla domanda se essa conferma la regola. L’annuncio che il partecipante è abbastanza fiducioso della correttezza della sua ipotesi conclude il test.
Le conclusioni di Wason furono le seguenti (p.139):
I risultati mostrano che solo pochissimi giovani intelligenti testano spontaneamente le loro credenze in una situazione che non sembra essere di natura “scientifica”. L’obiettivo del test simula un problema scientifico in miniatura, le cui variabili sono sconosciute, e in cui devono essere sistematicamente addotte prove per confutare o supportare ipotesi. […] Il tipo di atteggiamento mentale che questo compito richiede è quello dell’analisi formale della procedura scientifica proposta da Popper (1959). Esso consiste nella volontà di tentare di falsificare ipotesi, e quindi di testare le idee intuitive che spesso portano alla sensazione di certezza. Ovviamente il metodo scientifico può essere insegnato e coltivato. Ma la disponibilità (in contrasto con la capacità) a pensare e discutere razionalmente in un ambito asistematico di conoscenza è presumibilmente legato ad altri fattori, oltre all’intelligenza, in quanto implica una disposizione a confutare, piuttosto che a rivendicare asserzioni, e a tollerare la disillusione per risposte negative.
Il filosofo Karl Popper propose nel 1934, nel suo libro “Logica della scoperta scientifica”, che quando si vuole accertare la verità di una teoria scientifica non è sufficiente verificarla, ma è necessario falsificarla.
- E’ facile ottenere delle conferme, o verifiche, per quasi ogni teoria, se quel che cerchiamo sono appunto delle conferme.
- Le conferme dovrebbero valere solo se sono il risultato di previsioni rischiose; vale a dire, nel caso che, non essendo illuminati dalla teoria in questione, ci saremmo dovuti aspettare un evento incompatibile con essa, un evento che avrebbe confutato la teoria.
- Ogni teoria scientifica “valida” è una proibizione: essa preclude l’accadimento di certe cose. Quante più cose preclude, tanto migliore essa risulta.
- Una teoria che non può essere confutata da alcun evento concepibile, non è scientifica.
- L’inconfutabilità di una teoria non è (come spesso si crede) un pregio bensì un difetto.
Lo psicologo Daniel Kahneman parla del Confirmation Bias nel suo libro “Pensieri lenti e veloci” nel capitolo “Un meccanismo per saltare alle conclusioni” (pp.89-99). Nel distinguere le proprietà dei due sistemi che organizzano la mente umana, vale a dire il sistema intuitivo (Sistema 1) e quello razionale (Sistema 2), l’azione del pregiudizio di conferma si colloca nel Sistema 1. Egli scrive (p.92):
Contrariamente alle regole di filosofi della scienza, i quali consigliano di verificare un’ipotesi provando a confutarla, le persone (e molto spesso anche gli scienziati) cercano dati che siano compatibili con le loro credenze del momento. L’inclinazione alla conferma del sistema 1 [quello intuitivo] induce la gente ad accettare acriticamente ipotesi e a esagerare le probabilità che si verifichino eventi estremi e improbabili.
Un’ipotesi sul perchè cerchiamo di confermare le nostre credenze l’hanno fatta gli psicologi Hugo Mercier e Dan Sperber , i quali hanno sostenuto che, purtroppo, la tendenza alla conferma risiede nel Sistema 2, cioè proprio nel cuore del ragionamento umano. Essa è dovuta, secondo loro, alla necessità di argomentare per comunicare con altri, e dunque nella volontà di affermare se stessi in un confronto dialettico.
R.S. Nickerson (1998), Confirmation Bias: A Ubiquitous Phenomenon in Many Guises (PDF)
K.E. Stanovich, R.F. West, M.E. Toplak (2013), Myside Bias, Rational Thinking, and Intelligence (PDF)
K.E. Stanovich (2011), On the Distinction Between Rationality and Intelligence: Implications for Understanding Individual Differences in Reasoning (PDF)
Alessandro Giglioli (12 aprile 2014), Pregiudizi: una lezione presa – L’Espresso (Un esempio di pregiudizio)
Davide Scabia (2013), Conoscenza incerta e tendenza alla conferma – Tesi di Laurea (PDF) (Interessante documento per chi vuole approfondire molti aspetti degli errori nel ragionamento umano dovuti a un atteggiamento dogmatico anzichè critico)
Peter Wason (1960), On the failure to eliminate hypotheses in a conceptual task (PDF)
Annamaria Testa (20 ottobre 2014), Bias cognitivi: cinque modi veloci per ingannarsi da soli – Blog Nuovo e utile (Interessante articolo sui bias cognitivi all’interno di un blog che offre molti spunti di riflessione)
Carlo Veronesi (2007), Il falsificazionismo di Popper – MATEPristem Università Bocconi
Hugo Mercier, Dan Sperber (2009), Why do humans reason? Arguments for an argumentative theory (PDF)
Jonah Lehrer (2011), The Reason We Reason – Wired
[/av_textblock]