I social media si presentano come spazi di connessione e confronto. Ma se il criterio che guida la selezione dei contenuti è la capacità di generare reazioni, il rischio è di ottenere una sfera pubblica più aggressiva e meno informata.
Come l’algoritmo amplifica i contenuti estremi
I social media non sono solo strumenti di connessione: sono anche potenti filtri dell’informazione. Decidono quali contenuti vediamo, in quale ordine e quindi quali messaggi hanno più probabilità di influenzare le nostre opinioni. Per questo, gli algoritmi che regolano le piattaforme non sono affatto neutrali. In un recente articolo mostriamo che, quando i social danno più peso a “like”, condivisioni, commenti e altre interazioni attive – rispetto a segnali passivi come visualizzazioni o click – il coinvolgimento degli utenti aumenta, ma al prezzo di più disinformazione e maggiore polarizzazione politica. L’engagement (il coinvolgimento), insomma, non è gratis: produce un costo reale per la qualità dell’informazione e per il dibattito pubblico.Il punto di partenza è semplice: gli utenti con posizioni più estreme tendono a interagire più attivamente con i contenuti sui social. Se l’algoritmo premia proprio queste interazioni, i contenuti che suscitano reazioni forti ottengono maggiore visibilità. Si innesca così un circuito cumulativo: più interazioni producono più visibilità, e più visibilità genera nuove interazioni. Il risultato è che l’attenzione si sposta progressivamente verso contenuti più estremi e meno accurati.
Figura 1 — Distribuzione ideologica dei click a confronto

Definiamo questo processo “spiazzamento della verità”: i contenuti moderati e affidabili perdono spazio non perché non vengano pubblicati, ma perché l’algoritmo non li promuove. I contenuti più polarizzanti scalano invece le classifiche, erodendo quel centro moderato che spesso funge da equilibrio nel dibattito pubblico. Le conseguenze si manifestano sia sulla polarizzazione effettiva sia su quella percepita.
L’evidenza empirica: l’aggiornamento di Facebook del 2018
Per verificare se il meccanismo trovi conferma nei dati, sfruttiamo un cambiamento preciso nell’algoritmo di Facebook: l’introduzione, all’inizio del 2018, del criterio delle Meaningful Social Interactions (Msi). La piattaforma aveva dichiarato di voler privilegiare i post capaci di generare interazioni “significative”, attribuendo molto più peso alle interazioni di tipo attivo.
Nel caso italiano, utilizzando dati del Politometro Ipsos, osserviamo che dopo l’introduzione del Msi aumenta la probabilità che chi usa internet per formarsi un’opinione politica si collochi su posizioni non moderate. L’effetto non è immediato, ma emerge nei mesi successivi al cambiamento, senza segnali di tendenze preesistenti. Troviamo anche un incremento della polarizzazione affettiva: non cambia solo il posizionamento ideologico dichiarato, ma si irrigidisce anche la percezione dell’avversario politico, visto in modo sempre più ostile.
Figura 2 – Event study: effetto dell’aggiornamento Meaningful Social Interactions di Facebook sul posizionamento ideologico non moderato in Italia

Risultati analoghi emergono negli Stati Uniti (usando dati del PEW Research Center) confrontando utenti Facebook e utenti di altri social media prima e dopo il 2018. Anche qui si registra un aumento dell’estremismo ideologico auto-dichiarato, con un effetto stimato persino più marcato che in Italia.
La coerenza tra due contesti molto diversi rafforza l’interpretazione: non stiamo guardando a un’anomalia locale, ma a un meccanismo strutturale. Quando la logica del ranking premia la capacità di suscitare reazione, il sistema informativo tende a favorire i contenuti più adatti a mobilitare, indignare o dividere.
Un’imposta sull’engagement
Questo non significa che ogni interazione attiva sui social sia dannosa, né che la polarizzazione dipenda esclusivamente dagli algoritmi. I fattori in gioco sono molti: l’offerta politica, la frammentazione dei media, la crisi delle intermediazioni tradizionali. Ma è importante capire che gli algoritmi non operano nel vuoto: inseriti in un contesto già polarizzato, possono aggravare ulteriormente il problema.
La distorsione è chiara: le piattaforme hanno incentivi a progettare algoritmi che massimizzano il coinvolgimento, mentre non sostengono i costi collettivi che ne derivano in termini di disinformazione, radicalizzazione e deterioramento del confronto democratico. La risposta non è vietare like e condivisioni, né affidare a un’autorità pubblica il compito di decidere quali contenuti siano accettabili.
La nostra proposta è più circoscritta e di natura pigouviana: un’engagement tax sulle interazioni attive – like, condivisioni, commenti – generate dalla piattaforma. L’obiettivo è indurre i social media a internalizzare i costi sociali di un ranking guidato dalla viralità. In pratica, la tassa aumenterebbe il costo marginale di amplificare contenuti divisivi, spostando gli incentivi verso criteri di ranking meno dipendenti dalla capacità di suscitare reazioni forti. Non si tratta di censura, ma di correggere un fallimento di mercato: oggi le piattaforme non internalizzano i costi che la polarizzazione e la disinformazione creano alla società. I proventi dell’imposta potrebbero essere destinati a finanziare programmi di educazione digitale nelle scuole – quello che in letteratura viene chiamato media literacy – volti a sviluppare negli studenti la capacità di valutare criticamente le fonti, riconoscere la disinformazione e comprendere il funzionamento degli algoritmi. Sarebbe un modo per agire contemporaneamente sugli incentivi delle piattaforme e sulle competenze dei cittadini.
Il problema non è solo nei contenuti, ma nelle regole di visibilità
Il dibattito pubblico si concentra spesso sui contenuti: che cosa è vero, che cosa è falso, che cosa andrebbe rimosso. Ma il nostro lavoro suggerisce che una parte decisiva del problema sta a monte, nelle regole di visibilità. Non conta solo ciò che viene pubblicato; conta soprattutto ciò che l’algoritmo decide di premiare.
I social media si presentano come spazi di connessione e confronto. Ma se il criterio che guida la selezione dei contenuti è la capacità di generare reazioni, il rischio è di ottenere una sfera pubblica parzialmente più attiva e coinvolta, ma generalmente più aggressiva e meno informata. Correggere gli incentivi delle piattaforme è il primo passo per cambiarla.
Lavoce è di tutti: sostienila!
Lavoce.info non ospita pubblicità e, a differenza di molti altri siti di informazione, l’accesso ai nostri articoli è completamente gratuito. L’impegno dei redattori è volontario, ma le donazioni sono fondamentali per sostenere i costi del nostro sito. Il tuo contributo rafforzerebbe la nostra indipendenza e ci aiuterebbe a migliorare la nostra offerta di informazione libera, professionale e gratuita. Grazie del tuo aiuto!
È professore associato di economica all’Università Pompeu Fabra di Barcellona e alla Barcelona School of Economics. Dopo essersi laureato all’Università di Amburgo (Germania) e avere ottenuto il PhD in economia all’Università della California San Diego (USA) ha lavorato in varie altre università e centri di ricerca (Université de Lausanne, Université Catholique de Louvain, Tel Aviv University, Hebrew University of Jerusalem, Northwestern University, Université Aix-Marseille e l’Istituto Universitario Europeo di Firenze). Ha pubblicato in numerose riviste accademiche internazionali su temi di teoria dei giochi, teoria economica ed economia politica dei media.
Professore ordinario di economia politica all’Università di Roma Tor Vergata e research fellow del CESifo. Dopo la laurea in economia e scienze sociali all’Università Bocconi ha conseguito un Master in economia presso l’Università di Warwick (Regno Unito) ed un PhD in economia presso la University of Southern California (USA). E’ stato Jean-Monnet Fellow presso lo European University Institute, ricercatore all’IMT Lucca e all’Università Cattolica di Milano e professore associato alla LUISS “Guido Carli”. La sua principale area di ricerca è political economics con particolare riferimento all’analisi dei mass media. Su twitter è
Kim ALLAMANDOLA
Mh, mi permetto di suggerire il modello Nostr, un social FLOSS che per ora non sta granché prendendo piede dove i like sono micropagamenti Lightning (BTC) detti Zap. Siccome il costo medio è di 2-3 cent sino a 10 cent per articoli stile blog (detti note long form), il modello funziona, deve solo diffondersi per aver una base di lettori, contributori tale da mostrare cifre significative.
Perché il futuro dei social di piattaforma è quello cinese, che parla inglese, ciò di cui ha bisogno l’umanità è altro.
Angelo
Articolo molto interessante ma credo che la soluzione proposta non porti a nulla. “I social media si presentano come spazi di connessione e confronto”. Credo sia questo il punto centrale della questione: si presentano in una maniera, ma sono tutt’altro. Della connessione e del confronto non interessa nulla ai social, interessa la visibilità e gli introiti pubblicitari. E purtroppo noi siamo attirati dagli estremi che non ci richiedono di riflettere ma semplicemente di schierarci: o pro o contro, senza nessuna necessità di approfondire o riflettere. O crediamo veramente che corsi agli studenti possano aiutare?
Pietro Della Casa
Ottimo articolo.
Personalmente io sarei favorevole a vietare la possibilità dei like, che non aggiungono nulla alla libertà di informazione e sono a mio parere il fattore più grave di polarizzazione.
Non mi sembra invece né praticabile né desiderabile agire sugli algoritmi che premiano la produzione di ulteriori commenti: per quanto siano in qualche misura un fattore di polarizzazione sono anche un fattore di stimolo alla discussione che sarebbe antistorico limitare.
Vorrei anche segnalare che la programmazione delle IA utilizzate per lo screening dei commenti gioca ruoli non segnalati nell’articolo.
Uno è più “tecnico”, ossia la maggiore o minore capacità di individuare i contenuti aggressivi “nascosti”, per esempio dietro anagrammi. Se passano questi trucchetti, la polarizzazione aumenta.
Un altro, spesso lamentato dagli utenti, è l’introduzione di filtri selettivi più severi verso commenti identificati come non in linea con la linea editoriale; si potrebbe però argomentare che questo rientri nella legittima facoltà di scelta editoriale. In un certo senso inoltre questo potrebbe essere anche considerato un fattore di riduzione della polarizzazione, per quanto a vada scapito della neutralità.
L’ultimo, molto più insidioso, è l’utilizzo di strategie nascoste con finalità di sbilanciamento della credibilità delle opposte posizioni: ci sono siti dove è piuttosto evidente (ed empiricamente confermabile tramite una analisi sistematica fatta con stumenti opportuni) come i commenti vengano filtrati per qualità delle argomentazioni, effettuando per esempio una selezione avversa di quelli identificati come contrari alla linea editoriale del sito, ossia vengono accettati i commenti più beceri e bloccati quelli più argomentati, al fine di screditare una posizione a favore dell’altra.
Guido Zichichi
Perché negare la possibilità che lo spostamento su posizioni estremista sia una correlazione casuale?