Una tassa sui like contro la polarizzazione delle posizioni

I social media si presentano come spazi di connessione e confronto. Ma se il criterio che guida la selezione dei contenuti è la capacità di generare reazioni, il rischio è di ottenere una sfera pubblica più aggressiva e meno informata.

Come l’algoritmo amplifica i contenuti estremi

I social media non sono solo strumenti di connessione: sono anche potenti filtri dell’informazione. Decidono quali contenuti vediamo, in quale ordine e quindi quali messaggi hanno più probabilità di influenzare le nostre opinioni. Per questo, gli algoritmi che regolano le piattaforme non sono affatto neutrali. In un recente articolo mostriamo che, quando i social danno più peso a “like”, condivisioni, commenti e altre interazioni attive – rispetto a segnali passivi come visualizzazioni o click – il coinvolgimento degli utenti aumenta, ma al prezzo di più disinformazione e maggiore polarizzazione politica. L’engagement (il coinvolgimento), insomma, non è gratis: produce un costo reale per la qualità dell’informazione e per il dibattito pubblico.Il punto di partenza è semplice: gli utenti con posizioni più estreme tendono a interagire più attivamente con i contenuti sui social. Se l’algoritmo premia proprio queste interazioni, i contenuti che suscitano reazioni forti ottengono maggiore visibilità. Si innesca così un circuito cumulativo: più interazioni producono più visibilità, e più visibilità genera nuove interazioni. Il risultato è che l’attenzione si sposta progressivamente verso contenuti più estremi e meno accurati.


Figura 1 — Distribuzione ideologica dei click a confronto

Nota: i due pannelli mostrano i risultati di una simulazione al computer basata sul modello teorico sviluppato nel paper. L’asse orizzontale rappresenta l’ideologia dei contenuti su una scala da sinistra (-10) a destra (+10), dove lo zero indica contenuti moderati. L’asse verticale indica la densità di click ricevuti. Nel pannello A (algoritmo che non premia l’engagement attivo), i click si distribuiscono in modo abbastanza uniforme attorno al centro: sia gli utenti di sinistra (blu) sia quelli di destra (arancio) tendono a cliccare su contenuti vicini alla propria posizione, ma l’insieme rimane concentrato intorno ai valori moderati. Nel pannello B (algoritmo che premia fortemente l’engagement attivo), la distribuzione si “separa”: i click si addensano sulle posizioni più estreme degli schieramenti, e i contenuti moderati perdono visibilità. La simulazione mostra che non occorre che gli utenti siano già polarizzati perché questo accada: è sufficiente che l’algoritmo amplifichi le interazioni attive.

Definiamo questo processo “spiazzamento della verità”: i contenuti moderati e affidabili perdono spazio non perché non vengano pubblicati, ma perché l’algoritmo non li promuove. I contenuti più polarizzanti scalano invece le classifiche, erodendo quel centro moderato che spesso funge da equilibrio nel dibattito pubblico. Le conseguenze si manifestano sia sulla polarizzazione effettiva sia su quella percepita.

L’evidenza empirica: l’aggiornamento di Facebook del 2018

Per verificare se il meccanismo trovi conferma nei dati, sfruttiamo un cambiamento preciso nell’algoritmo di Facebook: l’introduzione, all’inizio del 2018, del criterio delle Meaningful Social Interactions (Msi). La piattaforma aveva dichiarato di voler privilegiare i post capaci di generare interazioni “significative”, attribuendo molto più peso alle interazioni di tipo attivo.

Leggi anche:  Chi ha paura dei dazi negli Stati Uniti?

Nel caso italiano, utilizzando dati del Politometro Ipsos, osserviamo che dopo l’introduzione del Msi aumenta la probabilità che chi usa internet per formarsi un’opinione politica si collochi su posizioni non moderate. L’effetto non è immediato, ma emerge nei mesi successivi al cambiamento, senza segnali di tendenze preesistenti. Troviamo anche un incremento della polarizzazione affettiva: non cambia solo il posizionamento ideologico dichiarato, ma si irrigidisce anche la percezione dell’avversario politico, visto in modo sempre più ostile.

Figura 2 – Event study: effetto dell’aggiornamento Meaningful Social Interactions di Facebook sul posizionamento ideologico non moderato in Italia

Nota: il grafico si legge da sinistra a destra come una linea del tempo relativa: il punto zero (“0” sull’asse orizzontale) è il mese in cui Facebook ha introdotto il Msi; i mesi negativi (-1, -2, …) sono i mesi precedenti, quelli positivi (+1, +2, …) sono i mesi successivi. L’asse verticale misura la variazione nella probabilità di collocarsi su una posizione ideologica non moderata, rispetto a un gruppo di controllo (utenti che non usano Internet come principale fonte di informazione politica). I punti arancioni mostrano la stima dell’effetto; le barre verdi rappresentano l’intervallo di confidenza al 95 per cento, cioè il margine di incertezza statistica. Prima dell’aggiornamento (mesi negativi), i punti oscillano attorno allo zero senza un trend sistematico: ciò conferma che non esistevano differenze preesistenti tra i gruppi. Dopo l’aggiornamento, i punti tendono a spostarsi verso valori positivi, indicando un aumento della probabilità di posizioni non moderate tra gli utenti esposti all’algoritmo Msi. L’effetto si consolida nei mesi successivi, coerentemente con il meccanismo cumulativo descritto nel modello.

Risultati analoghi emergono negli Stati Uniti (usando dati del PEW Research Center) confrontando utenti Facebook e utenti di altri social media prima e dopo il 2018. Anche qui si registra un aumento dell’estremismo ideologico auto-dichiarato, con un effetto stimato persino più marcato che in Italia. 

La coerenza tra due contesti molto diversi rafforza l’interpretazione: non stiamo guardando a un’anomalia locale, ma a un meccanismo strutturale. Quando la logica del ranking premia la capacità di suscitare reazione, il sistema informativo tende a favorire i contenuti più adatti a mobilitare, indignare o dividere.

Un’imposta sull’engagement

Questo non significa che ogni interazione attiva sui social sia dannosa, né che la polarizzazione dipenda esclusivamente dagli algoritmi. I fattori in gioco sono molti: l’offerta politica, la frammentazione dei media, la crisi delle intermediazioni tradizionali. Ma è importante capire che gli algoritmi non operano nel vuoto: inseriti in un contesto già polarizzato, possono aggravare ulteriormente il problema.

La distorsione è chiara: le piattaforme hanno incentivi a progettare algoritmi che massimizzano il coinvolgimento, mentre non sostengono i costi collettivi che ne derivano in termini di disinformazione, radicalizzazione e deterioramento del confronto democratico. La risposta non è vietare like e condivisioni, né affidare a un’autorità pubblica il compito di decidere quali contenuti siano accettabili.

La nostra proposta è più circoscritta e di natura pigouviana: un’engagement tax sulle interazioni attive – like, condivisioni, commenti – generate dalla piattaforma. L’obiettivo è indurre i social media a internalizzare i costi sociali di un ranking guidato dalla viralità. In pratica, la tassa aumenterebbe il costo marginale di amplificare contenuti divisivi, spostando gli incentivi verso criteri di ranking meno dipendenti dalla capacità di suscitare reazioni forti. Non si tratta di censura, ma di correggere un fallimento di mercato: oggi le piattaforme non internalizzano i costi che la polarizzazione e la disinformazione creano alla società. I proventi dell’imposta potrebbero essere destinati a finanziare programmi di educazione digitale nelle scuole – quello che in letteratura viene chiamato media literacy – volti a sviluppare negli studenti la capacità di valutare criticamente le fonti, riconoscere la disinformazione e comprendere il funzionamento degli algoritmi. Sarebbe un modo per agire contemporaneamente sugli incentivi delle piattaforme e sulle competenze dei cittadini.

Leggi anche:  Tra gol attesi e gol fatti "l'effetto Allegri" non si vede

Il problema non è solo nei contenuti, ma nelle regole di visibilità

Il dibattito pubblico si concentra spesso sui contenuti: che cosa è vero, che cosa è falso, che cosa andrebbe rimosso. Ma il nostro lavoro suggerisce che una parte decisiva del problema sta a monte, nelle regole di visibilità. Non conta solo ciò che viene pubblicato; conta soprattutto ciò che l’algoritmo decide di premiare.

I social media si presentano come spazi di connessione e confronto. Ma se il criterio che guida la selezione dei contenuti è la capacità di generare reazioni, il rischio è di ottenere una sfera pubblica parzialmente più attiva e coinvolta, ma generalmente più aggressiva e meno informata. Correggere gli incentivi delle piattaforme è il primo passo per cambiarla.

Lavoce è di tutti: sostienila!

Lavoce.info non ospita pubblicità e, a differenza di molti altri siti di informazione, l’accesso ai nostri articoli è completamente gratuito. L’impegno dei redattori è volontario, ma le donazioni sono fondamentali per sostenere i costi del nostro sito. Il tuo contributo rafforzerebbe la nostra indipendenza e ci aiuterebbe a migliorare la nostra offerta di informazione libera, professionale e gratuita. Grazie del tuo aiuto!

Leggi anche:  Chi ha paura dei dazi negli Stati Uniti?

Precedente

Come se la caverebbe il Como in Premier League

Successivo

Il Punto

  1. Mh, mi permetto di suggerire il modello Nostr, un social FLOSS che per ora non sta granché prendendo piede dove i like sono micropagamenti Lightning (BTC) detti Zap. Siccome il costo medio è di 2-3 cent sino a 10 cent per articoli stile blog (detti note long form), il modello funziona, deve solo diffondersi per aver una base di lettori, contributori tale da mostrare cifre significative.

    Perché il futuro dei social di piattaforma è quello cinese, che parla inglese, ciò di cui ha bisogno l’umanità è altro.

    • Angelo

      Articolo molto interessante ma credo che la soluzione proposta non porti a nulla. “I social media si presentano come spazi di connessione e confronto”. Credo sia questo il punto centrale della questione: si presentano in una maniera, ma sono tutt’altro. Della connessione e del confronto non interessa nulla ai social, interessa la visibilità e gli introiti pubblicitari. E purtroppo noi siamo attirati dagli estremi che non ci richiedono di riflettere ma semplicemente di schierarci: o pro o contro, senza nessuna necessità di approfondire o riflettere. O crediamo veramente che corsi agli studenti possano aiutare?

  2. Pietro Della Casa

    Ottimo articolo.
    Personalmente io sarei favorevole a vietare la possibilità dei like, che non aggiungono nulla alla libertà di informazione e sono a mio parere il fattore più grave di polarizzazione.

    Non mi sembra invece né praticabile né desiderabile agire sugli algoritmi che premiano la produzione di ulteriori commenti: per quanto siano in qualche misura un fattore di polarizzazione sono anche un fattore di stimolo alla discussione che sarebbe antistorico limitare.

    Vorrei anche segnalare che la programmazione delle IA utilizzate per lo screening dei commenti gioca ruoli non segnalati nell’articolo.

    Uno è più “tecnico”, ossia la maggiore o minore capacità di individuare i contenuti aggressivi “nascosti”, per esempio dietro anagrammi. Se passano questi trucchetti, la polarizzazione aumenta.
    Un altro, spesso lamentato dagli utenti, è l’introduzione di filtri selettivi più severi verso commenti identificati come non in linea con la linea editoriale; si potrebbe però argomentare che questo rientri nella legittima facoltà di scelta editoriale. In un certo senso inoltre questo potrebbe essere anche considerato un fattore di riduzione della polarizzazione, per quanto a vada scapito della neutralità.
    L’ultimo, molto più insidioso, è l’utilizzo di strategie nascoste con finalità di sbilanciamento della credibilità delle opposte posizioni: ci sono siti dove è piuttosto evidente (ed empiricamente confermabile tramite una analisi sistematica fatta con stumenti opportuni) come i commenti vengano filtrati per qualità delle argomentazioni, effettuando per esempio una selezione avversa di quelli identificati come contrari alla linea editoriale del sito, ossia vengono accettati i commenti più beceri e bloccati quelli più argomentati, al fine di screditare una posizione a favore dell’altra.

  3. Guido Zichichi

    Perché negare la possibilità che lo spostamento su posizioni estremista sia una correlazione casuale?

Lascia un commento

Non vengono pubblicati i commenti che contengono volgarità, termini offensivi, espressioni diffamatorie, espressioni razziste, sessiste, omofobiche o violente. Non vengono pubblicati gli indirizzi web inseriti a scopo promozionale. Invitiamo inoltre i lettori a firmare i propri commenti con nome e cognome.

Powered by WordPress & Theme by Anders Norén