Bias cognitivi e fallacie logiche: fra scienza e quotidianità

Vi siete mai chiesti quali sono i processi che stanno dietro alla selezione delle fonti quando dobbiamo informarci su un determinato argomento? Come mai noi tendiamo a propendere per un articolo piuttosto che un altro? In che modo possono influenzarci i pregiudizi?

Se la risposta è negativa, questo è l’articolo che fa per voi!

bias

A differenza di quel che si potrebbe pensare in un primo momento, l’argomento di questo articolo è perfettamente attinente all’ambiente del benessere e dello sport, anzi, lo è a tutti gli aspetti dell’esistenza umana.

Definizione

I bias cognitivi sono costrutti basati su percezioni errate della realtà e/o pregiudizi che di frequente possono portare le persone a fare affermazioni e pensieri errati su i più svariati argomenti. Invece, le fallacie logiche (o sofismi) sono errori nascosti nel ragionamento che comportano la violazione delle regole di un confronto argomentativo corretto.

E’ tutt’altro che raro – soprattutto su internet – quando i commenti sono espressi in maniera civile, vedere utenti consapevoli di essere di parte o pieni di pregiudizi circa un determinato tema, principiare una discussione con frasi del tipo: «Premetto che riguardo all’argomento x ho i miei bias, …».

Quanti tipi di bias esistono?

Esistono svariate decine di bias cognitivi. Qui di seguito ne elencheremo i principali:

  • bias di conferma: qualunque nuova informazione conferma le nostre convinzioni precedenti, confutando quelle opposte. Questo è in assoluto uno dei pregiudizi più comuni, è infatti fortemente legato alle posizioni religiose e politiche: «Nel valutare notizie e idee, la nostra mente è più attenta a riconoscersi in un gruppo di appartenenza, che rafforza la nostra identità, che non a valutare l’accuratezza delle informazioni» [1]. Inoltre, il bias di conferma va a nozze con le cosiddette bugie blu, restando in tema politico: «I bambini iniziano a dire bugie egoistiche verso i tre anni, quando scoprono che gli adulti non possono leggere i loro pensieri: non ho rubato quel giocattolo, papà ha detto che potevo, mi ha picchiato lui per primo. A circa sette anni iniziano a dire “bugie bianche” motivate da sentimenti di empatia e compassione: che bello il tuo disegno, i calzini sono un bel regalo di Natale, sei divertente.
    Le “bugie blu” appartengono a una categoria del tutto diversa: sono allo stesso tempo egoiste e vantaggiose per gli altri, ma solo se appartengono al proprio gruppo. Come spiega Kang Lee, psicologo all’Università di Toronto, queste bugie cadono a metà fra quelle “bianche” dette per altruismo e quelle “nere” di tipo egoista. “Si può dire una bugia blu contro un altro gruppo”, dice Lee, e questo rende chi la dice allo stesso tempo altruista ed egoista. “Per esempio, si può mentire su una scorrettezza commessa dalla squadra in cui giochi, che è una cosa antisociale, ma aiuta la tua squadra.”
    In uno studio del 2008 su bambini di 7, 9 e 11 anni – il primo del suo genere – Lee e colleghi hanno scoperto che i bambini diventano più propensi a raccontare e approvare le bugie blu via via che crescono. Per esempio, potendo mentire a un intervistatore sulle scorrettezze avvenuta durante la fase di selezione delle squadre in un torneo scolastico di scacchi, molti erano abbastanza disposti a farlo, e i ragazzi grandi più di quelli più giovani. I bambini che mentivano non avevano nulla da guadagnare personalmente; lo stavano facendo per la loro scuola. Questa ricerca suggerisce che le bugie nere isolano le persone, le bugie bianche le uniscono, e le bugie blu coalizzano alcune persone e ne allontanano altre. […] Questa ricerca – e queste storie – evidenziano una dura verità sulla nostra specie: siamo creature intensamente sociali, ma siamo inclini a dividerci in gruppi competitivi, in gran parte per il controllo della distribuzione delle risorse. […] “La gente perdona le bugie contro le nazioni nemiche, e dato che oggi in America molte persone vedono quelli dall’altra parte politica come nemici, possono ritenere – quando le riconoscono – che siano strumenti di guerra appropriati”, dice George Edwards, politologo alla Texas A & M e uno dei più importanti studiosi nazionali della presidenza» [2]. Per concludere, questo meccanismo psicologico è direttamente collegato al concetto della post-verità (posttruth), cioè alla non importanza della veridicità di una notizia. Vera o falsa che sia, l’unico fine di quest’ultima è quello di rafforzare i pregiudizi delle persone, è anche per questo motivo che il Debunking (sbufalamento) spesso e volentieri risulta essere inefficace [3]. Circa quest’ultimo punto, un dato teoricamente dovrebbe correggere una nostra errata convinzione, in realtà – paradossalmente – rischia di radicalizzare ulteriormente la stessa (backfire effect). Contestando un’affermazione vi è la possibilità che questa si pianti ancor più a fondo nel cervello (transparency of denial).
  • Bias di gruppo: bias che ci porta a sopravvalutare le capacità ed il valore del nostro gruppo di appartenenza, attribuendo perentoriamente alla sfortuna gli eventi negativi e al talento quelli positivi (basti pensare alle vittorie e sconfitte nello sport).
  • Bias d’autorità: detto ache principio d’autorità, porta le persone a credere per filo e per segno a tutto ciò che asserisce chi è in possesso di una laurea od un ottimo curriculum, anche se magari questo fantomatico esperto esce dalla sua sfera di competenze. Per la scienza i dati e gli studi contano più delle opinioni dei singoli individui, laureati o meno che siano. Ne aveva parlato bene il chimico e ricercatore Dario Bressanini nel suo articolo: Il potere mediatico del camice bianco.
  • Bias della negatività: tendenza a focalizzarsi principalmente sugli avvenimenti negativi, ignorando – almeno parzialmente – quelli positivi. Ciò può portare a sminuire se stessi e ad essere stressati.
  • Bias dell’ottimismo: l’optimis bias è molto più diffuso di quel che si potrebbe pensare e consiste nel vedere il proprio futuro in maniera molto più rosea di ciò che ci suggerirebbe la razionalità. Questo è una specie di trucco che mette in atto la nostra mente per ricercare serenità in periodi difficili.
  • Bias di ancoraggio: la prima informazione recepita diventa il capo saldo, l’ancora, del ragionamento successivo. Su di esso fanno leva tutte le persone che vogliono vendere qualcosa: si parte da un prezzo X e dopo si propongono prezzi un po’ più bassi che al confronto del prezzo iniziale (X) sembrano veramente convenienti.
  • Effetto carovana: rappresenta la tendenza a credere in qualcosa solo perché molte altre persone ci credono (i fedeli di Jim Jones ne sapevano qualcosa…).
  • Media bias: questo bias colpisce diversi giornalisti e fabbricatori di notizie. Riguarda la selezione delle notizie, delle storie ed il modo in cui esse vengono riportate.
  • Bias dello status quo: il cambiamento spaventa? Allora si tenta, anche inconsciamente, di prendere le decisioni più facili, quelle che lasciano le cose così come stanno.
  • Bias del presente: questo bias ci fa prendere delle decisioni che hanno il fine di gratificarci sul momento, in acuto, non valutando la bontà delle nostre scelte sul lungo periodo. Ciò si riflette soprattutto sui nostri acquisti e sul cibo che mangiamo (ruolo edonistico dell’alimentazione).
  • Bias d’azione: le persone sono portate ad agire anche quando intervenire porta a più svantaggi che altro.
  • Bias di omissione: al contrario di prima, le persone non agiscono anche se sarebbe logico farlo, probabilmente perché timorose di eseguire una azione (errata) e successivamente rimpiangerla. Venne osservato ciò durante le vaccinazioni che avevano lo scopo di contrastare un’epidemia (maggiori approfondimenti qui).
  • Bias di proiezione: percezione distolta della realtà. Riteniamo di pensare e vedere le cose sempre nella maniera giusta e ci sembra che anche le altre persone la pensino come noi (falso consenso).
  • Bias conservativo: ogni novità viene vista con grande sospetto e sottovalutata rispetto alle precedenti convinzioni.
  • Illusione della trasparenza: illusione di conoscere e percepire con estrema precisione lo stato mentale ed i pensieri di un’altra persona.
  • Effetto alone: la percezione di alcuni tratti è fortemente influenzata da altre caratteristiche dell’individuo che non hanno niente a che fare con i primi. Ne è un esempio il fatto che alcune persone tendano a considerare come intelligente un uomo solo perché elegante e di bell’aspetto.
  • Effetto alone inverso: il contrario di prima. Se un individuo od un oggetto ha una caratteristica negativa, allora anche gli altri tratti vengono percepiti come tali.
  • Ottimismo retrospettivo: visione distorta del passato, che ci porta a considerare e vedere in modo diverso (e migliore) gli avvenimenti che lo riguardano. Questo bias cognitivo è simile alla nostalgia, tuttavia quest’ultima non implica necessariamente una visione falsata. Ergo, si può essere nostalgici senza sopravvalutare a tutti i costi il passato. L’ottimismo retrospettivo è fortemente legato al declinismo, cioè quel bias che ci porta a pensare che tutto vada peggio rispetto ad una volta, anche quando oggettivamente non è così (Eh, ai miei tempi…).
  • Effetto novità: le nuove informazioni, specialmente se bizzarre e divertenti, vengono memorizzate meglio avendo una priorità nei meccanismo cognitivi della mente umana. Al contrario, le informazioni meno insolite – più “normali” – non vengono viste come prioritarie.
  • Bias dello scommettitore: errata percezione delle probabilità matematiche. Se alla tombola sono stati estratti di seguito quattro numeri pari, il quinto, seguendo questa (errata) logica, sarà molto probabilmente un numero dispari. Nulla di più sbagliato, le probabilità sono sempre 50 e 50.
  • Bias dell’angolo cieco: si manifesta nel momento in cui si ha la sensazione che le persone che ci stanno intorno vengano condizionate dai bias molto di più rispetto a noi.

La cosa peggiore è che noi il più delle volte siamo corrotti da bias e prendiamo decisioni sbagliate senza nemmeno rendercene conto…

Fallacie logiche
  • Argumentum ad hominem: durante una discussione vengono messe da parte le argomentazioni ed i contenuti per concentrarsi su degli attacchi alla persona.
  • Cherry Picking: il cherry picking è una tattica argomentativa, talvolta involontaria, che consiste nel rafforzare una tesi con l’ausilio di argomentazioni o prove ad essa favorevoli, escludendo a priori tutte quelle sfavorevoli, che pertanto la confuterebbero.
  • Argumentum ad ignorantiam: “l’assenza di evidenza non è essa stessa un’evidenza“, ma non lo sa chi cade, o ricorre, a questa fallacia logica. Se ad esempio non può essere provata la non esistenza di qualcosa (fantasmi, mostri vari, extraterrestri) ciò non sta a significare che quel qualcosa esista per forza.
  • Fallacia della brutta china: partendo da una determinata tesi si ipotizza  l’accadere di una sequenza di conseguenze (spesso gravi). Il più delle volte queste conseguenze vengono viste come pressoché inevitabili. Ad esempio, se si parte a bere una birra, di lì a poco si diventa alcolizzati. E se si prova uno spinello, sicuramente si passerà poi all’eroina.
  • Petitio principii: fallacia logica in cui si incappa quando la conclusione di un ragionamento conferma la premessa iniziale dello stesso. “Stephen King è un grande scrittore? Allora il suo ultimo romanzo è un gran bel libro!“.
  • Post hoc ergo propter hoc: tradotto letteralmente come “dopo di questo, quindi a causa di questo“, consiste nel ricondurre (con causalità) un avvenimento a ciò che è avvenuto subito prima. “Abbiamo pregato per ore ed il Signor Rossi si è risvegliato dal coma? Allora il Signor Rossi è stato salvato dalle nostre preghiere!” ma ovviamente un eventuale nesso temporale non sta necessariamente ad indicare un rapporto causa-effetto (anzi, spesso non è così).

Altre considerazioni

Non sempre è facile accorgersi degli errori insiti nelle proprie logiche argomentative e rivedere le proprie posizioni. Pensiamo ad esempio alla politica: quanto è piacevole discutere con persone del nostro medesimo orientamento politico – che quindi confermano le nostre posizioni di pensiero – e quanto è sgradevole, alle volte perfino irritante, farlo con chi ha idee molto diverse dalle nostre, magari diametralmente opposte o moralmente inaccettabili?

Quando affrontiamo seriamente un dibattito, guardiamo un documentario, leggiamo un libro o ragioniamo su un film appena visto al cinema, il nostro cervello subisce delle modificazioni strutturali. Parliamo ovviamente di cambiamenti minimi, quasi impercettibili, visibili unicamente col microscopio elettronico a scansione. Tutto ciò è garantito dalla plasticità del nostro cervello.

Al riguardo ci sentiamo di consigliarvi le seguenti letture:

- Menti tribali. Perché le brave persone si dividono su politica e religione (J. Haidt)Cervello. Manuale dell'utente. Guida semplificata alla macchina più complessa del mondo (Magrini M.)
- L'importanza dei romanzi per l'empatia e lo sviluppo sociale (Le Scienze)
Bias e ricerca scientifica

Nessuno è immune ai bias, ci mancherebbe altro. Ma la stessa ricerca scientifica è “livellata” per far sì che certi tipi di studi (i più attendibili) siano, per quanto possibile, esenti dai bias dei pazienti e degli stessi ricercatori.

ebm-pyramid2

Per esempio, i trial clinici (studi sperimentali) per contrastare pregiudizi e convinzioni personali di pazienti e ricercatori possono essere di 3-4 differenti tipologie:

  • Randomizzati: i soggetti sono stati inseriti in maniera del tutto casuale all’interno di uno dei gruppi di studio (gruppo che riceve il trattamento o gruppo placebo).
  • Cieco: i soggetti dell’esperimento non sanno quale trattamento ricevano.
  • Doppio cieco: nemmeno i ricercatori sanno qual è il trattamento somministrato a ciascuno dei soggetti dell’esperimento.
  • Triplo cieco: se oltre ai ricercatori e ai pazienti vi sono degli esaminatori esterni, anche questi non sono a conoscenza della natura della somministrazione del trattamento (placebo oppure no) a cui vanno incontro i pazienti.

Senza questi “trucchi”, la ricerca scientifica non progredirebbe da secoli.

Qui un video di Dario Bressanini molto interessante inerente la “Sindrome da Premio Nobel”, che riprende un po’ il discorso sul principio d’autorità di cui abbiamo trattato prima.

Per ulteriori approfondimenti vi consigliamo le seguenti letture:
- Invito alla ricerca. Metodologia e tecniche del lavoro scientifico (García J. M.)
- Capire gli studi scientifici, mini-guida (E. Cravanzola)
Conclusioni

Bias, fallacie e modi di pensare, come già detto, il più delle volte sfuggono al nostro controllo ed alla nostra volontà. Difficilmente riconoscibili per i diretti interessati, è come se rientrassero nell’imponderabile. Sappiamo che ci sono e ci possiamo fare poco, indipendentemente di nostri sforzi.

Dato che tutto ciò è connaturato alla mente umana, non vi è una soluzione, un antidoto, un vaccino. Pesare le proprie parole, mettersi in discussione, non sentirsi sempre e comunque superiori alle altre persone è forse un buon modo per limitare l’influenza dei bias nella quotidianità ma il raggiungimento di una sorta di immunità è impossibile. In fondo, anche la sensazione di essere inscalfibili dai bias è data da un pregiudizio bello e buono (bias dell’angolo cieco).

Grazie per l’attenzione.



Referenze

Magrini M. – Cervello. Manuale dell’utente (2017)

Bias ed euristiche: cosa sono e quali sono i più frequenti (link)

Bressanini D. – Il potere mediatico del camice bianco (2016)

Di Schiena R. et al. – Bias di omissione: Un contributo al dibattito attraverso la proposta di un test empirico (2007)

Silverman C. – Lies, Damn Lies and Viral Content (2015)

[1] Le Scienze – Perché crediamo al nostro partito politico (2018)

[2] Le Scienze – Perché le “bugie blu” non fanno perdere consensi (2017)

[3] Zollo F. et al. – Debunking in a world of tribes (2017)

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo di WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

Connessione a %s...