Fake news, social media, bias: quanto c’entrano gli algoritmi?

scritto da il 12 Luglio 2024

Post di Federico Giannini, CEO e co-founder di GH Srl –

Negli ultimi tempi abbiamo assistito a un aumento delle fake news in circolazione sui principali social network e siamo stati testimoni delle conseguenze che, soprattutto in alcuni contesti sociali più delicati, sono culminate in azioni violente. In parte, la problematica è imputabile al fatto che i social media non regolino in modo efficace la condivisione di notizie false e infondate, consentendo a chiunque abbia un account social di sostituirsi a un esperto. D’altra parte, però, non bisogna sottovalutare il potere dell’algoritmo alla base del funzionamento dei social media e che ne determina il guadagno.

Considerando, infatti, che un utente medio non paga per utilizzare un social media, il “prodotto” di scambio diventa l’utente stesso: i suoi dati, i suoi comportamenti e la sua attenzione vengono mappati e studiati attentamente dall’algoritmo, che se ne serve per incrementare il guadagno della piattaforma. L’obiettivo? Tenere l’utente quanto più tempo possibile connesso. Come ci riescono? Mostrandogli dei contenuti in target che gli piacciono, lo attraggono e lo spingono ad interagire con essi, mantenendolo così attivo all’interno del social.

I social media implementano quindi tutte le strategie in loro possesso per attrarre utenti e aumentare i profitti: notifiche push e gamification sono due tra gli esempi più usati e impiegano sistemi simili a quelli delle slot machine, che in psicologia vengono chiamati rinforzi positivi intermittenti e che rilasciano, nel cervello dell’essere umano, forti scariche di dopamina. Sostanzialmente l’algoritmo riesce a penetrare nelle falle del nostro cervello e a fare leva sui nostri bias, ossia su quegli errori cognitivi che commettiamo involontariamente per migliorare la nostra esistenza e per renderla più semplice.

Bias che influenzano l’utente medio su un social media: le tipologie 

Tra i bias più comuni spicca il consistency bias, che si manifesta quando prendiamo una decisione e siamo determinati a voler rimanere coerenti a tutti i costi, senza ammettere di aver sbagliato, anche quando le evidenze mostrano il contrario, e che spiega perché è così difficile cercare di far cambiare idea a un interlocutore. I social network hanno un ruolo chiave nel confermare le opinioni preesistenti degli utenti attraverso l’utilizzo degli algoritmi di raccomandazione, che mostrano agli utenti contenuti simili a quelli che hanno già visualizzato.

Al bisogno di rimanere coerenti con le decisioni prese in passato, si aggiunge la necessità di approvazione. L’essere umano è alla costante ricerca di punti di riferimento e di conferme, ed è un bisogno che trova il suo apice sui social network: il social stimola il commento ed è in grado di appagare quella necessità di approvazione che attanaglia le persone. Per fare un esempio concreto, basti pensare che Instagram ha tolto il counter dei like perché le persone si sentivano giudicate dal riceverne pochi: questo, indubbiamente, ci fa capire che al giorno d’oggi il numero dei like, delle condivisioni e dei commenti è diventato una moneta di accettazione e rivalsa sociale.

Alla luce di questo contesto, è evidente che gli algoritmi delle varie piattaforme social lavorino sfruttando un altro bias del nostro cervello, il confirmation bias, legato alla ricerca continua di prove per confermare tesi che già sosteniamo e che ci porta a ignorare il contrario e chi la pensa diversamente da noi.

Camera d’eco, effetto bandwagon e backfire effect: cosa sono?

Se leggo un articolo su un determinato argomento, l’algoritmo inizierà a propormi contenuti, gruppi, account e pagine che confermino o che siano coerenti con quanto letto. Questo meccanismo contribuisce a costruire una camera dell’eco, ossia un ambiente in cui il messaggio viene ripetuto continuamente e che ci porta ad accogliere e ad accettare come vere delle cose a cui già crediamo.

La mente interpreta fatti e crea significati per andare a rafforzare la realtà che si è costruita: in quanto esseri umani, non possediamo un ascolto neutro, bensì leggiamo, ascoltiamo e assimiliamo dati in base a convinzioni pregresse e viviamo, di fatto, in una bolla, ossia una zona in cui ci vengono proposti dei contenuti con cui siamo già d’accordo, e questo l’algoritmo lo sa. Sa anche che, così facendo, interagiremo e prolungheremo la nostra permanenza sulla piattaforma. L’utente che sperimenta questo meccanismo è convinto che quella sia la sua realtà, ma non c’è niente di più falso.

bias

Prima che i social esplodessero, riuscire a convincere di qualcosa migliaia di persone era un’azione dispendiosa, anche a livello economico: il cosiddetto “effetto bandwagon”, o “effetto carrozzone”, fenomeno psicologico in cui le persone tendono ad aderire a una certa opinione semplicemente perché molte altre persone lo fanno, è stato poi rimpiazzato da ecosistemi protetti, “bolle” che ci fanno sentire apprezzati e compresi e da cui non vogliamo uscire. Se la bolla viene attaccata, magari da un’opinione diversa rispetto a quella della massa, le persone possono avere reazioni violente e spropositate, andando a innescare il cosiddetto backfire effect.

La responsabilità delle bacheche sui social media

Le persone non vogliono abbandonare la loro zona di comfort e reagiscono violentemente se costrette a farlo. Il backfire effect scatta quando le nuove informazioni, invece di cambiare le nostre errate convinzioni, hanno l’effetto di renderle ancor più granitiche. Le principali responsabili di tutto questo sono le bacheche dei social media, che hanno il compito di mantenerci informati e coinvolti, e le bacheche sono in vendita: chiunque può pagare la pubblicità e inserirla nella bacheca di qualcun altro. Questo inevitabilmente ha effetti sulle nostre conversazioni, sulle nostre relazioni e sulla nostra democrazia, e genera un fenomeno che crea una polarizzazione, incentivando così gli estremismi.

Una soluzione è possibile? Come ci si libera dai bias?

Liberarsi dai bias frequentando i social media non è quindi un processo semplice, ma ci sono alcuni modi per imparare a superarli. Come prima cosa, occorre imparare a riconoscere i bias cognitivi più comuni: capire come funzionano può aiutare a riconoscerli quando si manifestano. Importante è poi diversificare le fonti: seguire quindi una varietà di fonti di informazione con prospettive diverse senza limitarsi a un’unica piattaforma o a un singolo gruppo di opinioni. Verificare poi sempre le notizie: prima di accettare e condividere informazioni, verifica la loro veridicità, utilizzando fonti affidabili e indipendenti.

Per uscire dalla propria bolla, è inoltre fondamentale parlare con persone che hanno punti di vista diversi dai proprio, poiché il confronto può aiutare a vedere le cose da diverse prospettive. Il passo più importante è però essere consapevoli del fatto che i social media utilizzano algoritmi che personalizzano il contenuto in base alle proprie interazioni passate e cercare, così, di interagire con contenuti diversi per evitare di restare chiuso in una “bolla informativa”, senza accettare passivamente ciò che si legge ma analizzando criticamente le informazioni.