I “Facebook files” hanno rivelato il ruolo degli algoritmi alla base delle piattaforme digitali. Per capirne le implicazioni sulle dinamiche dell’opinione pubblica occorre analizzare la loro interazione con i bias comportamentali degli individui.

Come le piattaforme usano gli algoritmi

Le recenti rilevazioni dei whistleblowers di Facebook hanno portato all’attenzione dell’opinione pubblica i possibili rischi connessi agli algoritmi usati dalle piattaforme digitali per gestire i propri contenuti informativi. Gli algoritmi usati da social media come Facebook e Twitter o da motori di ricerca come Google e Bing decidono quali informazioni mostrare e in che ordine mostrarle. Di conseguenza, decidono di fatto quali informazioni siano più o meno rilevanti per un dato individuo. Al punto che social media e motori di ricerca sono stati definiti “filtri algoritmici”. Di fatto, svolgono un ruolo editoriale che li rende molto diversi dai media tradizionali. Al punto che Rieder e Sire suggeriscono che il processo editoriale algoritmico sia “più vicino alla statistica che al giornalismo”.

Occorre quindi chiedersi quali siano le implicazioni degli algoritmi in termini di informazione e di opinione pubblica. Per rispondere alla domanda, in un recente articolo accademico, abbiamo elaborato un modello matematico che cattura l’interazione tra l’algoritmo usato da una piattaforma digitale e le scelte degli individui su quali contenuti selezionare.

Il modello analizza una situazione in cui individui con una certa opinione iniziale su un dato tema (per esempio, vaccini sicuri/pericolosi) accedono a una piattaforma digitale per reperire ulteriori informazioni (per esempio fanno una ricerca su Google). Nello scegliere quale contenuto proposto dalla piattaforma leggere (per esempio, su quale sito web cliccare, quale post di Facebook leggere, e così via), gli individui sono guidati da un confirmation bias (inclinazione a volere vedere confermata la propria opinione e che tende quindi a fare scegliere contenuti che avvalorano l’opinione iniziale) e da un attention bias (inclinazione a prestare attenzione a pochi contenuti e che tende a far scegliere contenuti che sono presentati in posizioni più prominenti nella piattaforma, ad esempio siti web più in alto nel ranking dei risultati di ricerca). Ambedue le inclinazioni si basano su un’ampia evidenza empirica e sono fondamentali per capire le dinamiche del processo editoriale algoritmico.

Leggi anche:  Italia al bivio: intervista a Romano Prodi*

Popolarità e personalizzazione

Ci focalizziamo poi su due macro-classi di algoritmi: (1) quelli basati sulla popolarità di un dato contenuto web, ovvero in cui la prominenza data a un tale contenuto aumenta nel tempo più il contenuto è popolare (per esempio più persone cliccano su un sito web); (2) quelli che personalizzano l’ordine dei contenuti in base ad alcune caratteristiche individuali, come indirizzo Ip o cronologia delle ricerche, con la conseguenza che utenti diversi osservano contenuti in ordine diverso.

Per ciò che concerne gli algoritmi basati sulla popolarità mostriamo come la loro capacità di agire come meccanismo di aggregazione delle informazioni disperse nella popolazione sia una funzione delle tendenze comportamentali degli utenti e delle loro informazioni iniziali, oltreché della qualità delle informazioni dei siti web. In particolare, essendo essenziale il feedback degli utenti in questi processi algoritmici basati sulla popolarità, è chiaro che se le opinioni iniziali sul tema in questione sono generalmente poco corrette e gli utenti hanno un forte confirmation bias, allora il feedback tende a influenzare negativamente il processo di aggregazione dell’informazione, perché gli utenti sceglieranno troppo spesso siti web che hanno informazioni sbagliate portandoli su nel ranking. Utilizzando come metrica di efficienza informativa la probabilità (asintotica) che un individuo scelga un sito che riporta informazioni corrette, mostriamo come in questi casi un algoritmo che ordina i contenuti in maniera casuale (simile, ad esempio, a uno puramente basato sugli ultimi contenuti pubblicati) sia addirittura più efficiente di uno basato sulla popolarità. Viceversa, se una frazione sufficientemente ampia della popolazione ha un’opinione iniziale corretta o gli utenti non hanno un confirmation bias troppo grande, l’algoritmo basato sulla popolarità può aggregare l’informazione degli utenti e dei siti web in maniera efficiente e decisamente migliore di un algoritmo casuale.

Allo stesso tempo, mostriamo come gli algoritmi basati sulla popolarità generino un effetto che chiamiamo “il vantaggio dei pochi”: minore è il numero di siti che riporta un dato contenuto informativo (per esempio, contro i vaccini), maggiore è l’audience totale che cattureranno. L’effetto è dovuto al fatto che la più alta concentrazione del traffico verso pochi siti, ne aumenta il ranking permettendogli di attrarre così più utenti. Questo tipo di meccanismo può contribuire a spiegare perché le piattaforme digitali sembrano favorire la diffusione di fake news/teorie cospirative.

Leggi anche:  Fin dove arriva la responsabilità delle piattaforme

Per ciò che concerne gli algoritmi personalizzati, nel nostro lavoro mostriamo come portino a polarizzare le opinioni iniziali degli individui creando quindi delle “camere dell’eco” algoritmiche. A sua volta, ciò si traduce in una riduzione dell’efficienza informativa su temi in cui c’è una verità “oggettiva” (sicurezza dei vaccini). In particolar modo, la personalizzazione del ranking tende a contrastare gli effetti positivi degli algoritmi basati sulla popolarità visto che ne limita, in media, le esternalità positive. Tuttavia, occorre sottolineare come su temi in cui la verità sia “soggettiva” (per esempio, in che ristorante cenare), algoritmi personalizzati siano con tutta probabilità efficienti. Il problema è che tali algoritmi, concepiti e sviluppati per ambiti commerciali, trasposti su tematiche di opinione pubblica possono invece avere effetti negativi. Le informazioni emerse dai “Facebook Files” hanno evidenziato la rilevanza dell’interazione tra algoritmi e comportamento umano.

Tra le accuse mosse ai vertici di Facebook c’è anche quella di aver insistito su di un algoritmo che poneva un forte accento sulla popolarità e la personalizzazione, nonostante alcuni dati sembrassero suggerirne effetti negativi in termini di disinformazione e polarizzazione.

Gli algoritmi sono tra noi: rappresentano la spina dorsale di social media e motori di ricerca usati ogni giorno da miliardi di individui. Capirne e studiarne le implicazioni è di fondamentale importanza per il futuro dell’eco-sistema delle piattaforme digitali e dell’opinione pubblica più in generale.

Lavoce è di tutti: sostienila!

Lavoce.info non ospita pubblicità e, a differenza di molti altri siti di informazione, l’accesso ai nostri articoli è completamente gratuito. L’impegno dei redattori è volontario, ma le donazioni sono fondamentali per sostenere i costi del nostro sito. Il tuo contributo rafforzerebbe la nostra indipendenza e ci aiuterebbe a migliorare la nostra offerta di informazione libera, professionale e gratuita. Grazie del tuo aiuto!

Leggi anche:  Fin dove arriva la responsabilità delle piattaforme