Lavoce.info

Wikipedia, un esempio contro le bufale

Notizie false, distorte o filtrate e incitamento all’odio sono considerati un pericolo per la democrazia. Per questo in molti paesi si studiano leggi per fermarli. Ma la soluzione migliore è rifarsi all’esperienza di Wikipedia, evitando censure preventive.

Rischio di censura preventiva

Notizie false, distorte o filtrate e incitamento all’odio sono considerati un pericolo per la democrazia. Il governo tedesco, preoccupato che le “fake news” possano influenzare le prossime elezioni, ha messo a punto una bozza di legge che prevede forti sanzioni per chi diffonde “fake” (fino a 50 milioni di euro per i social media). Anche in Italia di recente è stato presentato un disegno di legge bipartisan contro la manipolazione dell’informazione e le campagne d’odio che stabilisce ammende, seppur più modeste, e carcere.
Il tema è salito alla ribalta in seguito alla pubblicazione di notizie false durante l’ultima campagna presidenziale americana e alla crescente diffusione on-line di informazioni distorte (evidenziata, per esempio, da un’inchiesta di BuzzFeed News sull’Italia, a fine 2016).
Se e in quale misura le notizie false sui social network abbiano effettivamente influenzato il voto negli Usa è una questione dibattuta. In un recente studio sulle elezioni americane, gli economisti Hunt Allcott e Matthew Gentzkow hanno sottolineato che i social sono stati una fonte di informazione importante, ma non dominante rispetto alla Tv. Al di là del discutibile impatto sul voto, lo studio non sminuisce il problema, ma ne sottolinea le molteplici sfaccettature.
Come si può affrontare il pericolo delle “fake news” online? Vi sono forti dubbi sulla capacità dei social di elaborare procedure di investigazione e cancellazione dei contenuti che siano operative nei brevi termini richiesti da una legge, come per esempio quella proposta in Germania (24 ore per rimuovere contenuti palesemente illegali e sette giorni per verificare quelli incerti). Dinanzi al rischio sanzioni, i social potrebbero applicare meccanismi di censura preventiva e permanente. Ciò ha spinto le Nazioni Unite, l’Organizzazione per la sicurezza e la cooperazione in Europa (Osce) e altre istituzioni a una dichiarazione congiunta che, pur ribadendo il timore per le “fake news”, sottolinea il rischio censura. Anche il Commissario europeo per il mercato unico digitale si è pronunciato per la libertà di espressione e contro le azioni punitive, quando ci ricordano l’orwelliano “ministero della Verità”.

Leggi anche:  Fin dove arriva la responsabilità delle piattaforme

Il caso Wikipedia

Wikipedia, la libera enciclopedia online, ha molto da insegnare su come si possono progettare piattaforme social o migliorare quelle esistenti per arginare contenuti “fake”.
Un bene pubblico dell’era Internet, Wikipedia ha appena compiuto sedici anni ed è il risultato dello sforzo collettivo di una comunità virtuale che opera secondo una divisione del lavoro tipica del movimento open source. Il collante della comunità di scopo o “purpose-built” (vedi tabella 1) è una missione condivisa: la produzione di un bene “non rivale e non escludibile”. Agli esordi, Wikipedia era considerata un progetto impossibile, anche per i dubbi sulla capacità di resistere ad atti di vandalismo, ovvero ai “fake”. Tuttavia, nonostante alcuni limiti qualitativi inevitabili in una collezione così vasta di informazioni, Wikipedia ha smentito le perplessità. Attualmente conta circa 41 milioni di articoli disponibili in oltre 290 lingue e 70mila redattori attivi.
Le caratteristiche essenziali della “governance” di Wikipedia sono l’apertura e la trasparenza, abbinate a soluzioni tecniche che facilitano la collaborazione degli utenti nel fact checking e nella neutralizzazione degli atti vandalici. In un articolo del 2003, avevo sottolineato che uno dei principali segreti del successo dell’enciclopedia è la tecnologia Wiki che abbatte i costi di transazione relativi alla cancellazione dei vandalismi, consentendo di recuperare la versione corretta di un articolo con un singolo click.
Per evitare le sanzioni previste dagli interventi legislativi in discussione in vari paesi, le piattaforme on-line potrebbero ricorrere a censura preventiva e cedere alla tentazione di affidarsi in misura crescente ad algoritmi che identificano i “fake”. Anche se fosse possibile automatizzare l’operazione in modo efficace, cosa improbabile, in quale misura sarebbe sensato cedere il controllo delle informazioni ad aziende globali orientate al profitto?
L’esperienza di Wikipedia suggerisce che vi sono altre soluzioni possibili, capaci di salvaguardare la qualità dell’informazione sulla rete, preservando l’elemento collaborativo umano. Ciò implica che non ci si deve limitare a fissare sanzioni, ma si deve richiedere alle piattaforme il rispetto di alcuni principi generali: a) massima apertura e trasparenza, favorendo il confronto all’interno di spazi on-line dedicati; b) fornire a un numero significativo di utenti la possibilità di segnalare pubblicamente le informazioni sospette (red-flagging) e anche di rimuovere i messaggi d’odio, attraverso soluzioni ispirate alla tecnologia Wiki; c) regole di base sulla verificabilità delle fonti. In tal modo si possono porre le condizioni per vincere la battaglia contro le “fake news”. Perché, come insegna Eric S. Raymond, uno dei padri della comunità open source, “con molti occhi che guardano, tutti gli errori vengono a galla”.

Leggi anche:  Italia al bivio: intervista a Romano Prodi*

Tabella 1 – Vulnerabilità alle “fake news”, per tipologia di comunità virtuali

Lavoce è di tutti: sostienila!

Lavoce.info non ospita pubblicità e, a differenza di molti altri siti di informazione, l’accesso ai nostri articoli è completamente gratuito. L’impegno dei redattori è volontario, ma le donazioni sono fondamentali per sostenere i costi del nostro sito. Il tuo contributo rafforzerebbe la nostra indipendenza e ci aiuterebbe a migliorare la nostra offerta di informazione libera, professionale e gratuita. Grazie del tuo aiuto!

Leggi anche:  Italia al bivio: intervista a Romano Prodi*

Precedente

Il deficit commerciale che influenza il voto francese

Successivo

Decreto Minniti-Orlando: i limiti di una riforma necessaria

11 commenti

  1. Bel pezzo. Di Raymond, esiste il testo completo qui: https://it.wikisource.org/wiki/La_cattedrale_e_il_bazaar

  2. Sandro Faleschini

    Io resto convinto che trasparenza vuol dire eliminazione per quanto possibile dell’anonimato. Se tutti comparissero con nome e cognome validato da un documento, almeno per i messaggi di odio, bullismo e simili dovrebbe esserci un forte miglioramento.

    • Henri Schmit

      Giustissimo!

    • Lorenzo

      Non sono del tutto certo.
      Se fossi ateo e denunciassi la presenza invadente del tema della Resurrezione nei contenuti scolastici dei miei figli, non crede che io e/o loro potrebbero essere soggetti a discriminazione / odio?
      Personalmente ritengo che il metodo wiki sia migliore, ma mi rendo conto che esso cozza con l’obiettivo business di piattaforme tipo FB/YT o dei siti acchiappa click. In mancanza di un meccanismo che dia autorevolezza ai contenuti, l’enunciato di Eco si dispiega in tutta la sua evidenza: “La tv aveva promosso lo scemo del villaggio rispetto al quale lo spettatore si sentiva superiore. Il dramma di Internet è che ha promosso lo scemo del villaggio a portatore di verità”

  3. Francesco Pastore

    Pur condividendo per ciò che concerne i vantaggi della gestione di una notizia o in generale di una informazione con la metodologia “wiki”, ritengo la fattispecie delle fake news diffuse sui social network assolutamente peculiare rispetto all’enciclopedia on line più famosa del mondo. Il numero delle visualizzazioni della notizia sui social network e soprattutto la velocità con cui queste poi si trasformano in condivisioni e/o alimentano commenti di vario genere, rende il fenomeno assolutamente differente. Sebbene con costi di implementazione e gestione assai più elevati, ritengo che una politica repressiva e sanzionatoria quale quella applicata in Germania ed in via di discussione anche nel nostro Paese, sia l’unica adatta a contrastare il problema. Vi sono veri e propri cluster di pagine nei social media che sfruttano il fruttuoso mercato del click baiting sfruttando la velocità quasi incontrollabile di diffusione delle notizie. Ciò non accade ovviamente su wikipedia, per due ordini di ragioni. La prima è che si ha il non trascurabile vantaggio di consultare un solo spazio web, il sito ufficiale e la App a questo collegata. La seconda è collegata alla caratteristica principale di Wikipedia, in cui ciascuna voce è soggetta a preventiva autorizzazione prima di essere pubblicata, ed ogni modifica attiva una serie di segnalazioni che consentono entro pochi minuti o poche ore di rettificare eventuali informazioni false.

  4. Henri Schmit

    Per poter combattere le buffale on-line si deve prima essere capaci di combatterle come tali, proferite in tv, sui giornali, in conferenza stampa, etc. “Vaste tâche!”, diceva l’altro.

  5. Giorgio Ponzetto

    Vorrei chiedere all’esperto: non è possibile imporre alle piattaforme che siano pubblicati soltanto testi di cui l’autore è identificato? Non riesco a capire perché gli interventi sui giornali e sulle riviste hanno tutti un autore con tanto di nome e cognome e in più anche un direttore responsabile mentre sul web chiunque può scrivere qualsiasi cosa nascondendosi dietro all’anonimato.

    • A.C.

      Come alcuni commenti sottolineano, l’identificazione degli autori (articoli firmati etc.) è certo una opzione che può aumentare credibilità e anche, grazie ai vantaggi legati alla reputazione, capacità di trattenere i membri di una comunità che vive di apporti volontari. La soluzione adottata nel caso specifico Wikipedia è però di non riportare sotto una voce la lista degli autori. Tuttavia non si tratta di contributi anonimi: nella pagina cronologia vengono registrate le modifiche, chi le ha apportate e, in caso di utenti non registrati, l’indirizzo IP. La “governance” è abbastanza elaborata e per chi vuole saperne di più si consiglia di consultare le pagine dedicate sul sito (https://it.wikipedia.org/wiki/Wikipedia:Politica_relativa_alla_privacy#Identificazione_dell.27autore).
      Su FB gli utenti dovrebbero essere, almeno in teoria, identificati. Infatti se si perdono le credenziali o vi sono accessi sospetti ad un profilo, il social può chiedere l’invio di un documento di identità per ripristinare l’accesso. Tuttavia ciò non preclude il pullulare di profili falsi, nè scoraggia la diffusione di info distorte.
      Nonostante queste e altre differenze, il problema vero è che conoscere l’identità di un autore, pur consentendo di sanzionare illeciti, non preclude a ciascuno di diffondere notizie false/distorte. La maggioranza di queste sono infatti firmate, anche da personaggi noti. Ergo la necessità di soluzioni per un “fact checking” efficace e affidabile.

  6. sandro

    wikipedia manca ancora del tutto di un sistema di certificazione dell’identità, e, a maggior ragione, di certificazione delle competenze di chi scrive. Di un simile sistema già si è dotata Facebook, dove è possibile visualizzare pagine autenticate di VIP gestite senza poter creare profili fake.Sarebbe auspicabile almeno su base volontaria per gli utenti che sono disponibli a farlo, anche affidandosi ad enti terzi che già svolgono questo tipo di attività di certificazione dei curriculum, oppure impegnando volontari.

  7. Henri Schmit

    Stamattina dopo il dibattito televiso Macron-Le Pen Le Monde analizza (http://www.lemonde.fr/les-decodeurs/article/2017/05/03/des-intox-du-debat-entre-emmanuel-macron-et-marine-le-pen-verifiees_5121846_4355770.html), secondo uno schema simile a quello proposto nel presente articolo, il discorso della candidata populista e rileva 19 affermazioni false, fuorvianti, incomplete etc. Sarebbe quello il lavoro della stampa seria, del mondo accademico e di noi tutti.

  8. Antonio Carbone

    In linea di principio sembra l’unica soluzione equilibrata. Ma si scontra secondo me con un limite strutturale. Essendo basata sul contributo degli utenti ha bisogno di una “massa critica” di persone in grado di identificare “bufale” e notizie falsificate. Tuttavia secondo l’ultima indagine OCSE del 2014, meno di un terzo della popolazione italiana avrebbe i livelli di comprensione della scrittura e del calcolo necessari per orientarsi nella vita di una società moderna (PIAAC – Programme for International Assessment of Adult Competencies). Quando l’ho letto non potevo crederci! Solo 3 adulti su 10! Il resto, cioè il 70%, sono in condizioni di analfabetismo funzionale!
    Siamo ultimi assieme alla Spagna rispetto a circa 30 paesi sviluppati. È vero che il fenomeno dell’analfabetismo funzionale è diffuso anche negli altri paesi, ma non ai livelli italo-spagnoli (es. Giappone e Olanda sono intorno al 40%).
    Sono dati molto preoccupanti che non spiegano solo la “virulenza” delle bufale…..

Lascia un commento

Non vengono pubblicati i commenti che contengono volgarità, termini offensivi, espressioni diffamatorie, espressioni razziste, sessiste, omofobiche o violente. Non vengono pubblicati gli indirizzi web inseriti a scopo promozionale. Invitiamo inoltre i lettori a firmare i propri commenti con nome e cognome.

Powered by WordPress & Theme by Anders Norén