Lavoce.info

Sarà l’Europa ad arginare lo strapotere degli algoritmi?

La forte e crescente concentrazione del controllo sulla conoscenza e l’uso improprio degli algoritmi non sono il frutto inevitabile della tecnologia dell’informazione, ma di scelte politiche. Oggi però si aprono nuove possibilità per invertire la rotta.

La concentrazione del controllo sulla conoscenza

Che sia avvenuto un forte e diffuso aumento della concentrazione di ricchezza è fatto acquisito: in Italia, fra 1996 e 2016, la quota di ricchezza netta posseduta dal 10 per cento più ricco è passata da meno del 50 per cento a oltre il 60, quella dei primi 5mila adulti dal 2 al 7 per cento. Oggi sta crescendo la consapevolezza, anche nella cultura liberale, che a questa tendenza ha concorso una crescente concentrazione del controllo sulla conoscenza. Ne sono indizi eclatanti sia il fatto che sette delle prime dieci imprese del mondo si basano su tecnologie dell’informazione (figura 1), sia il “disprezzo” del vertice di una di queste imprese verso i rappresentanti eletti del popolo.

Figura 1– Le prime dieci società del mondo per valore di mercato nel 2018

Fonte: M. Florio, F. Giffoni, “L’impatto sociale della produzione di scienza su larga scala: come governarlo?

Come argomenta il Rapporto “15 Proposte per la giustizia sociale”del Forum disuguaglianze e diversità(ForumDD), seguendo l’analisi di Anthony Atkinson, questa situazione non è ineluttabile. Se la tecnologia dell’informazione, che ha il potenziale per diffondere il controllo della conoscenza, è stata impiegata per ottenere il risultato opposto, ciò è dovuto a scelte politiche compiute negli ultimi trenta anni. Che possono e devono essere invertite. Si tratta di correggere l’esasperazione della protezione della proprietà intellettuale realizzata con l’Accordo Trips (Agreement on Trade Related Aspects of Intellectual Property Rights) del 1995, di risolvere il paradosso per cui il patrimonio pubblico di open science costruito da infrastrutture pubbliche di ricerca (oltre mille in Europa) viene privatizzato al momento di produrre le innovazioni, di assegnare alle nostre imprese pubbliche un ruolo strategico di promotrici di concorrenza.

Leggi anche:  Fin dove arriva la responsabilità delle piattaforme

Sovranità collettiva sui dati personali

A questi interventi deve aggiungersi un’azione per costruire una “sovranità collettiva” sui dati personali e sugli algoritmi di apprendimento automatico, ossia i modelli che, utilizzando grandi masse di dati, ricercano correlazioni fra fenomeni e forniscono previsioni su cui basare decisioni.

L’utilizzo degli algoritmi tocca oggi ogni dimensione di vita: il lavoro (reclutamento, valutazione, orari), le politiche pubbliche (assistenza sociale e sicurezza), la politica (informazione, propaganda), il consumo di servizi e beni sul mercato (prodotti in rete e pubblicità, intrattenimento, servizi di trasporto e turistici, credito, assicurazioni).

È su quest’ultimo terreno che gli algoritmi hanno raccolto il nostro, spesso incondizionato, consenso, permettendoci di conoscere all’istante le varianti di un prodotto desiderato e poi di acquisirlo con tempestività; offrire sul mercato prodotti e incontrare la “loro” domanda; moltiplicare le possibilità di intrattenimento. Accanto a questi e altri vantaggi, l’impiego degli algoritmi crea rischi sistematici per la giustizia sociale, ovvero per la “capacità di ciascuno di noi di fare le cose a cui assegna valore”.

Gli algoritmi di apprendimento automatico, forti di un apparente crisma di oggettività tecnica, tendono infatti a riprodurre in modo sistematico le discriminazioni del contesto a cui sono applicati (nel selezionare personale, determinare condizioni di credito, per esempio); replicare e amplificare pregiudizi istintivi; segmentare i consumatori o l’elettorato in micro-gruppi destinatari di messaggi dedicati e non comunicanti. Se utilizzati nelle politiche sociali e di cura della salute, gli algoritmi conducono a trattare ogni persona come membro del “gruppo” al quale viene assimilata, togliendo al servizio la fondamentale componente di riconoscimento dell’identità e delle problematiche e potenzialità personali. Tutto ciò avviene all’interno di uno scambio ineguale, in cui i dati personali che riversiamo in rete sono utilizzati senza essere remunerati e al di fuori del nostro controllo. Come è stato scritto: “le sirene dei server offrono servizi utili e godibili, impossessandosi del valore di mercato che noi in cambio produciamo”.

La risposta europea

La risposta a questa deriva sta crescendo. In Europa – con il regolamento generale per la protezione dei dati la Ue ha stabilito principi rilevanti per la tutela dall’abuso degli algoritmi – vi sono le condizioni per l’azione integrata descritta nel Rapporto. Si tratta di mettere alla prova il regolamento, incalzare i giganti del digitale come cittadini organizzati, valutare la possibilità di contrastare le loro posizioni di monopolio attraverso la costituzione di un’impresa pubblica europea, promuovere un equilibrio di genere – oggi le donne sono gravemente sotto-rappresentate nei ruoli di programmazione informatica – e un mix disciplinare nei team che elaborano gli algoritmi, sperimentare piattaforme digitali a “sovranità collettiva” specie per la produzione di servizi, moltiplicare i dataset (con dati amministrativi) aperti all’utilizzo da parte di comunità di innovatori in rete. L’esperienza di alcuni comuni italiani, impegnati oggi in un’alleanza con altre città del mondo, muove in alcune di queste direzioni. Con esse e con altri soggetti il ForumDD sarà da oggi impegnato.

Leggi anche:  Italia al bivio: intervista a Romano Prodi*

Lavoce è di tutti: sostienila!

Lavoce.info non ospita pubblicità e, a differenza di molti altri siti di informazione, l’accesso ai nostri articoli è completamente gratuito. L’impegno dei redattori è volontario, ma le donazioni sono fondamentali per sostenere i costi del nostro sito. Il tuo contributo rafforzerebbe la nostra indipendenza e ci aiuterebbe a migliorare la nostra offerta di informazione libera, professionale e gratuita. Grazie del tuo aiuto!

Leggi anche:  Francesco Daveri, un amico che non si dimentica

Precedente

Ma la famiglia manda in confusione Di Maio

Successivo

Il (dis)incentivo per il mercato dell’auto

  1. Federico Leva

    Già. Degli eccessi di TRIPS scriveva Stiglitz già nel 2006 ma ancora oggi c’è chi al Parlamento europeo vota per l’espansione dei diritti di privativa (e quindi dei monopoli privati sull’informazione) pur dicendosi di sinistra… contraddizioni.

    Intanto sulla scienza aperta c’è un importante disegno di legge già approvato alla Camera e incardinato al Senato, da non trascurare:
    http://www.senato.it/leg/18/BGT/Schede/Ddliter/51466.htm

  2. La cosa più urgente è disciplinare l’uso di algoritmi, profilature, microtargeting, uso di bot e di troll, etc. correlati alle campagne elettorali. Anche su questo l’UE è impegnata, opportunamente. Ma naturalmente nulla può fare in relazione alle elezioni interne agli stati membri.

Lascia un commento

Non vengono pubblicati i commenti che contengono volgarità, termini offensivi, espressioni diffamatorie, espressioni razziste, sessiste, omofobiche o violente. Non vengono pubblicati gli indirizzi web inseriti a scopo promozionale. Invitiamo inoltre i lettori a firmare i propri commenti con nome e cognome.

Powered by WordPress & Theme by Anders Norén