I social media si presentano come spazi di connessione e confronto. Ma se il criterio che guida la selezione dei contenuti è la capacità di generare reazioni, il rischio è di ottenere una sfera pubblica più aggressiva e meno informata.

Come l’algoritmo amplifica i contenuti estremi

I social media non sono solo strumenti di connessione: sono anche potenti filtri dell’informazione. Decidono quali contenuti vediamo, in quale ordine e quindi quali messaggi hanno più probabilità di influenzare le nostre opinioni. Per questo, gli algoritmi che regolano le piattaforme non sono affatto neutrali. In un recente articolo mostriamo che, quando i social danno più peso a “like”, condivisioni, commenti e altre interazioni attive – rispetto a segnali passivi come visualizzazioni o click – il coinvolgimento degli utenti aumenta, ma al prezzo di più disinformazione e maggiore polarizzazione politica. L’engagement (il coinvolgimento), insomma, non è gratis: produce un costo reale per la qualità dell’informazione e per il dibattito pubblico.Il punto di partenza è semplice: gli utenti con posizioni più estreme tendono a interagire più attivamente con i contenuti sui social. Se l’algoritmo premia proprio queste interazioni, i contenuti che suscitano reazioni forti ottengono maggiore visibilità. Si innesca così un circuito cumulativo: più interazioni producono più visibilità, e più visibilità genera nuove interazioni. Il risultato è che l’attenzione si sposta progressivamente verso contenuti più estremi e meno accurati.


Figura 1 — Distribuzione ideologica dei click a confronto

Nota: i due pannelli mostrano i risultati di una simulazione al computer basata sul modello teorico sviluppato nel paper. L’asse orizzontale rappresenta l’ideologia dei contenuti su una scala da sinistra (-10) a destra (+10), dove lo zero indica contenuti moderati. L’asse verticale indica la densità di click ricevuti. Nel pannello A (algoritmo che non premia l’engagement attivo), i click si distribuiscono in modo abbastanza uniforme attorno al centro: sia gli utenti di sinistra (blu) sia quelli di destra (arancio) tendono a cliccare su contenuti vicini alla propria posizione, ma l’insieme rimane concentrato intorno ai valori moderati. Nel pannello B (algoritmo che premia fortemente l’engagement attivo), la distribuzione si “separa”: i click si addensano sulle posizioni più estreme degli schieramenti, e i contenuti moderati perdono visibilità. La simulazione mostra che non occorre che gli utenti siano già polarizzati perché questo accada: è sufficiente che l’algoritmo amplifichi le interazioni attive.

Definiamo questo processo “spiazzamento della verità”: i contenuti moderati e affidabili perdono spazio non perché non vengano pubblicati, ma perché l’algoritmo non li promuove. I contenuti più polarizzanti scalano invece le classifiche, erodendo quel centro moderato che spesso funge da equilibrio nel dibattito pubblico. Le conseguenze si manifestano sia sulla polarizzazione effettiva sia su quella percepita.

L’evidenza empirica: l’aggiornamento di Facebook del 2018

Per verificare se il meccanismo trovi conferma nei dati, sfruttiamo un cambiamento preciso nell’algoritmo di Facebook: l’introduzione, all’inizio del 2018, del criterio delle Meaningful Social Interactions (Msi). La piattaforma aveva dichiarato di voler privilegiare i post capaci di generare interazioni “significative”, attribuendo molto più peso alle interazioni di tipo attivo.

Nel caso italiano, utilizzando dati del Politometro Ipsos, osserviamo che dopo l’introduzione del Msi aumenta la probabilità che chi usa internet per formarsi un’opinione politica si collochi su posizioni non moderate. L’effetto non è immediato, ma emerge nei mesi successivi al cambiamento, senza segnali di tendenze preesistenti. Troviamo anche un incremento della polarizzazione affettiva: non cambia solo il posizionamento ideologico dichiarato, ma si irrigidisce anche la percezione dell’avversario politico, visto in modo sempre più ostile.

Figura 2 – Event study: effetto dell’aggiornamento Meaningful Social Interactions di Facebook sul posizionamento ideologico non moderato in Italia

Nota: il grafico si legge da sinistra a destra come una linea del tempo relativa: il punto zero (“0” sull’asse orizzontale) è il mese in cui Facebook ha introdotto il Msi; i mesi negativi (-1, -2, …) sono i mesi precedenti, quelli positivi (+1, +2, …) sono i mesi successivi. L’asse verticale misura la variazione nella probabilità di collocarsi su una posizione ideologica non moderata, rispetto a un gruppo di controllo (utenti che non usano Internet come principale fonte di informazione politica). I punti arancioni mostrano la stima dell’effetto; le barre verdi rappresentano l’intervallo di confidenza al 95 per cento, cioè il margine di incertezza statistica. Prima dell’aggiornamento (mesi negativi), i punti oscillano attorno allo zero senza un trend sistematico: ciò conferma che non esistevano differenze preesistenti tra i gruppi. Dopo l’aggiornamento, i punti tendono a spostarsi verso valori positivi, indicando un aumento della probabilità di posizioni non moderate tra gli utenti esposti all’algoritmo Msi. L’effetto si consolida nei mesi successivi, coerentemente con il meccanismo cumulativo descritto nel modello.

Risultati analoghi emergono negli Stati Uniti (usando dati del PEW Research Center) confrontando utenti Facebook e utenti di altri social media prima e dopo il 2018. Anche qui si registra un aumento dell’estremismo ideologico auto-dichiarato, con un effetto stimato persino più marcato che in Italia. 

La coerenza tra due contesti molto diversi rafforza l’interpretazione: non stiamo guardando a un’anomalia locale, ma a un meccanismo strutturale. Quando la logica del ranking premia la capacità di suscitare reazione, il sistema informativo tende a favorire i contenuti più adatti a mobilitare, indignare o dividere.

Un’imposta sull’engagement

Questo non significa che ogni interazione attiva sui social sia dannosa, né che la polarizzazione dipenda esclusivamente dagli algoritmi. I fattori in gioco sono molti: l’offerta politica, la frammentazione dei media, la crisi delle intermediazioni tradizionali. Ma è importante capire che gli algoritmi non operano nel vuoto: inseriti in un contesto già polarizzato, possono aggravare ulteriormente il problema.

La distorsione è chiara: le piattaforme hanno incentivi a progettare algoritmi che massimizzano il coinvolgimento, mentre non sostengono i costi collettivi che ne derivano in termini di disinformazione, radicalizzazione e deterioramento del confronto democratico. La risposta non è vietare like e condivisioni, né affidare a un’autorità pubblica il compito di decidere quali contenuti siano accettabili.

La nostra proposta è più circoscritta e di natura pigouviana: un’engagement tax sulle interazioni attive – like, condivisioni, commenti – generate dalla piattaforma. L’obiettivo è indurre i social media a internalizzare i costi sociali di un ranking guidato dalla viralità. In pratica, la tassa aumenterebbe il costo marginale di amplificare contenuti divisivi, spostando gli incentivi verso criteri di ranking meno dipendenti dalla capacità di suscitare reazioni forti. Non si tratta di censura, ma di correggere un fallimento di mercato: oggi le piattaforme non internalizzano i costi che la polarizzazione e la disinformazione creano alla società. I proventi dell’imposta potrebbero essere destinati a finanziare programmi di educazione digitale nelle scuole – quello che in letteratura viene chiamato media literacy – volti a sviluppare negli studenti la capacità di valutare criticamente le fonti, riconoscere la disinformazione e comprendere il funzionamento degli algoritmi. Sarebbe un modo per agire contemporaneamente sugli incentivi delle piattaforme e sulle competenze dei cittadini.

Il problema non è solo nei contenuti, ma nelle regole di visibilità

Il dibattito pubblico si concentra spesso sui contenuti: che cosa è vero, che cosa è falso, che cosa andrebbe rimosso. Ma il nostro lavoro suggerisce che una parte decisiva del problema sta a monte, nelle regole di visibilità. Non conta solo ciò che viene pubblicato; conta soprattutto ciò che l’algoritmo decide di premiare.

I social media si presentano come spazi di connessione e confronto. Ma se il criterio che guida la selezione dei contenuti è la capacità di generare reazioni, il rischio è di ottenere una sfera pubblica parzialmente più attiva e coinvolta, ma generalmente più aggressiva e meno informata. Correggere gli incentivi delle piattaforme è il primo passo per cambiarla.

Lavoce è di tutti: sostienila!

Lavoce.info non ospita pubblicità e, a differenza di molti altri siti di informazione, l’accesso ai nostri articoli è completamente gratuito. L’impegno dei redattori è volontario, ma le donazioni sono fondamentali per sostenere i costi del nostro sito. Il tuo contributo rafforzerebbe la nostra indipendenza e ci aiuterebbe a migliorare la nostra offerta di informazione libera, professionale e gratuita. Grazie del tuo aiuto!