Platone scrisse che gli uomini sono come un gruppo di prigionieri tenuti fin dalla nascita in una grotta e incatenati in modo tale da non riuscire a vedere niente se non un muro di fronte a loro. In questo mito, di solito chiamato il “mito della caverna”, dietro ai prigionieri c’è un fuoco che illumina il muro -come un proiettore di un teatro, e tra i prigionieri e il fuoco c’è un muretto, sul quale si muovono dei burattini mossi da dei burattinai nascosti dietro al muretto. I prigionieri, che non riescono a vedere né burattinai né burattini, vedono solo le ombre dei burattini sul muro, e, senza mai scoprire che cosa le provochi, scambiando queste ombre per la realtà. Le sorelle Wachowski usarono lo stesso concetto per costruire uno dei film più visionari degli ultimi decenni, Matrix. La domanda che poneva Platone è la stessa che si è posto Neo: ciò che credi sia reale, lo è davvero? E se fossimo tutti incatenati a un muro, con una visione molto parziale delle cose?
George Akerlof descrive, nel suo trattato sull’economia dell’identità Fonte:Akerlof, le norme sociali come le linee guida del comportamento per una data categoria sociale. Tali norme influenzano profondamente il nostro comportamento (conscio e inconscio), ben al di là dei nostri gusti personali. A dettare le norme sociali ci sono gli stereotipi, caratteristiche di un singolo che si pensa ben rappresentino la categoria a cui esso appartiene. Le norme sociali esistono poiché gli esseri umani sentono il bisogno di avere una conferma in ciò che credono, perché in situazioni di svantaggio offrono un supporto all’adattamento, e perché creano un senso di appartenenza a una data categoria e permettono di preservare l’immagine che uno ha creato di sé. Ma come giudichiamo se qualcosa “va bene o no”?
In psicologia c’è una teoria, chiamata la teoria del dual process, che spiega che i pensieri umani provengono da due sistemi differenti, e sono il risultato di due processi ben divisi. Daniel Kahneman nel suo libro Thinking, Fast and Slow Fonte:Daniel chiama i due processi Sistema 1 e Sistema 2.
Il Sistema 1 è il nostro sistema automatico, quello responsabile del pensiero intuitivo e veloce, che controlla le azioni involontarie ma anche impressioni, intuizioni, emozioni e intenzioni. Il Sistema 2 è invece il nostro sistema cosciente, lento e meditativo. Sebbene il Sistema 2 si senta il protagonista della nostra vita, è radicalmente influenzato dal Sistema 1. Il Sistema 1 infatti genera le impressioni e le emozioni che poi diventano la principale fonte del pensiero complesso ed esplicito che produce il Sistema 2. Il Sistema 1, sebbene spesso efficace, è così veloce perché basa il suo giudizio su “scorciatoie mentali” che gli permettono di prendere una decisione immediata. Il Sistema 1 in pratica non è uno che spacca il capello in quattro. Queste regole intuitive, queste “regole del nove” che il nostro Sistema 1 applica per interpretare la realtà sono chiamate in euristica, delle scorciatoie semplicistiche ma spesso corrette. È una euristica quando dopo uno sguardo decidiamo che quell’arbusto fatto di foglie in fondo alla via è probabilmente un albero, o quando decidiamo, senza conoscerla, se una persona è un criminale o una persona perbene. Allo stesso modo, è un’euristica quando decidiamo che qualcosa di familiare ci piace, quando diamo a qualcosa un valore più alto solo perché ci ha messo più tempo ad essere prodotto, e giudichiamo un anno soltanto dagli ultimi due mesi. Insomma, sono scorciatoie mentali che ci permettono di prendere decisioni su dei piedi. Di solito sono corrette, ma non sempre. Queste scorciatoie possono generare degli errori sistematici, chiamati in gergo bias cognitivi, degli errori di intuizione che possono portaci a conclusioni errate. Il problema è che questi errori di intuizione non possono essere controllati, perché sono generati automaticamente dal Sistema 1 e il Sistema 2 non ha idea che esistano. Come dice lo stesso Kahneman, siamo ciechi, e siamo ciechi all’essere ciechi. Quindi la parte del cervello che risponde in maniera positiva o negativa alle norme sociali è quella del Sistema 1 (intuitivo, rapido, efficace, ma le cui conclusioni sono talvolta sbagliate poiché predilige la strada più semplice), ma l’errore, quando avviene, è implicito, e dunque il Sistema 2 non lo rileva, anzi, lo consolida razionalmente.
L’errore di intuizione, il bias cognitivo, è presente in tutti i nostri modi di ragionare, pensare e vedere il mondo. Sono così presenti che vengono ampiamente sfruttati da social e dai media per farci comprare quello che le aziende vogliono, farci votare quello che gli schieramenti necessitano, e farci pensare quello che i partiti decidono. Il bias di conferma, uno dei bias responsabili per la polarizzazione sui social, è quello che ci porta a giudicare qualcosa e cercare conferma della nostra idea. Ci piace avere ragione, e di norma cerchiamo informazioni non per saperne di più, bensì per confermare le nostre teorie. È il motivo per cui è facile predire che se siamo di destra leggeremo Libero e se siamo di sinistra leggeremo Internazionale. O il motivo per cui quasi tutti gli appartenenti alla nostra “bolla” su Facebook o Instagram sembrano sempre avere idee affini alle nostre. Questo genera un effetto polarizzante secondo il quale, anche di fronte alle evidenze, rimaniamo della nostra idea, anzi, la rafforziamo.
In un esperimento risalente al lontano 1979, 48 partecipanti a favore o contro la pena di morte venivano messi di fronte a degli studi contraddittori, che provavano o contraddicevano le loro tesi. Entrambe le parti sostennero che gli articoli che gli davano ragione erano meglio scritti o più convincenti, e solo raramente una fazione fu convinta dalle argomentazioni dell’altra.
I media hanno un ruolo enorme, poiché sfruttano – coscientemente o no – la nostra tendenza a pensare e giudicare sulla base di scorciatoie mentali producendo informazioni superficiali ma facili da imparare e ripetere (“Make America Great Again” un esempio per tutti). Usano il coverage bias (il bias della copertura mediatica) per amplificare una certa narrativa (vedi le cronache di stupro, dove si sottolinea sempre se lo stupratore è non Italiano o non bianco), o il concision bias (il bias della concisione) per selezionare un aspetto dell’informazione, di solito quella più semplice, eliminando il contesto dal quale proviene. La maggior parte della comunicazione scientifica sui giornali generalisti purtroppo viene fatta così. Titoli quali “Il caffè provoca l’Alzheimer” o “Il vaccino provoca l’autismo” o, per rimanere in tema cronaca “23 persone muoiono per il vaccino” sono esempi di concision bias.
Ma se i media sfruttano questo nostro angolo cieco, questa passione del cervello per la semplificazione e lo status quo, è anche vero che la nostra società ne è il diretto riflesso. L’affinity bias (il bias dell’affinità) è la tendenza a preferire ciò che ci assomiglia di più, ed ecco spiegato perché nelle organizzazioni coloro che vengono assunti e promossi sono coloro che assomigliano di più al capo, o alla maggioranza degli impiegati (esempi eclatanti sono Google e Amazon). Famoso l’esperimento di Corinne Moss-Racusin, una psicologa sociale dello Skidmore College (USA), che creò due curriculum fittizi per una posizione di tecnico di laboratorio, la cui unica differenza stava nel nome del candidato: un curriculum portava il nome “Jennifer” e l’altro “John”. Il curriculum venne inviato a centinaia di biologi, chimici e fisici nelle università USA, e a ciascuno venne chiesto di valutare il candidato e proporre un salario. I risultati mostrarono che sebbene Jennifer a John avessero la stessa qualificazione, Jennifer fu percepita come meno competente, e per questo le fu offerto un salario più basso ($4000 in meno all’anno, circa il 13% in meno rispetto a John).
A volte un bias è evidente nei dati raccolti, altre volte il dato stesso è il bias (una specie di bias ex-machina). I dati infatti possono essere usati per portare alla luce ineguaglianze, ma possono contenere un bias all’interno. Se c’è una cosa che ci insegna la stampa è che il come si costruisce una storia fa la differenza. Un algoritmo, al pari di una storia, può contenere dati fallaci, o, peggio ancora, essere programmato di modo da promuovere uno stereotipo.
E dunque, come stani un pensiero, se non sai nemmeno di averlo? Ci sono tanti giocatori in questa partita. Ci siamo noi, gli individui, c’è il sistema, e poi ci sono gli enti privati, le aziende, fino alle cariche esecutive, i manager, gli scienziati. Ognuno ha la sua responsabilità. Se da una parte coloro che collezionano e analizzano i dati devono prendersi la responsabilità sull’integrità dei dati che presentano, è anche vero che la maggior parte dei programmi di integrazione e antidiscriminazione fallisce perché sono più focalizzati a cambiare l’individuo, piuttosto che il sistema all’interno del quale certi comportamenti si innestano e perpetrano. Uno studio infatti ha dimostrato che molti training aziendali non servono a molto per eliminare gli stereotipi all’interno del luogo di lavoro, essendo che poi la struttura stessa rafforza tali bias. L’intero ambiente sociale deve essere indirizzato, e questo può essere fatto solo ridisegnando i programmi all’interno delle aziende e delle università, dalla selezione alla promozione. Queste strutture sono importanti perché in qualche modo possono controllare e limitare, dall’alto, la tendenza dell’essere umano a queste trappole mentali. Per quanto riguarda noi, raggiungere un buon livello di autocoscienza è complesso, ma non impossibile. Dobbiamo ricordarci tutti che queste “trappole mentali”, come le chiama Matteo Motterlini, esistono e non ce ne rendiamo conto. Tenere una mente aperta, diversificare le proprie fonti di informazione, includere persone che non ci assomigliano per background culturale, pelle, religione, sesso o ideologia, contribuendo alla creazione di un ambiente eterogeneo nel quale gli altri possono aiutarci a stanare i nostri stessi preconcetti, è secondo noi un primo passo. Ed è forse anche in quest’ottica che una società culturalmente diversificata e integrata non dovrebbe farci paura, bensì rappresentare una risorsa per emanciparci dalle nostre vecchie idee e modi di pensare. Niente come portare un po’ di aria fresca in una cultura stagnate da duemila anni, per traghettarla -finalmente- nel ventunesimo secolo.
In questo numero abbiamo deciso di confrontarci non tanto con gli stereotipi in sé, ci sono centinaia di articoli sugli stereotipi e parlarne in modo generico sarebbe stato impossibile, bensì con il rafforzamento di certi stereotipi, luoghi comuni e norme sociali attraverso i bias cognitivi. È quindi non tanto un viaggio di denuncia, quanto di auto-riflessione nel mondo dei nostri stessi assunti. Pensiamo che in questo periodo storico, in cui tutti urlano, in cui la cosa più facile è scaricare il barile o accusarsi a vicenda, fosse necessario fare un po’ di autocritica, per innescare quel cambiamento che tutti vogliono, ma per cui non tutti sono disposti a lavorare, quel cambiamento di cui tutti possiamo (e dovremmo?) essere protagonisti.