I rischi legati all’uso o all’abuso dell’intelligenza artificiale richiedono regole e meccanismi di controllo condivisi. In questo dibattito l’Italia deve ritagliarsi un ruolo da protagonista, se vuole governare un cambiamento dalle conseguenze radicali.
Così l’intelligenza artificiale è entrata nelle nostre vite
Nel 1984, il film Terminator raccontava la storia di un cyborg inviato indietro nel tempo per eliminare la donna che avrebbe dato alla luce il leader della resistenza umana alle macchine, in un futuro distopico in cui l’intelligenza artificiale tenta di estinguere l’umanità. La realtà può superare la fantasia? 35 anni dopo quel film e i numerosi sequel, ci sono elementi per affermare che siamo sulla buona strada. L’intelligenza artificiale (AI – dall’inglese Artificial Intelligence) è in forte crescita e, più o meno silenziosamente, sta già permeando la nostra vita, con soluzioni applicate ai cellulari, all’assistenza medico-chirurgica, all’agricoltura, alla manifattura, alla difesa e ai trasporti, basta pensare, per esempio, alla sperimentazione dei veicoli a guida autonoma. La quinta generazione delle comunicazioni mobili, il 5G, consentirà un’ulteriore accelerazione nella sua applicazione alla vita quotidiana, dal 2020.
Queste tecnologie generano molte opportunità di crescita, legate all’automazione, alla maggiore produttività che ne deriva e alla domanda di prodotti personalizzati, ma anche rischi concreti, al di là del futuro apocalittico descritto nei film. Da un punto di vista socio-economico, l’intelligenza artificiale può acuire le disparità tra paesi, imprese e lavoratori. Alcuni studi recenti sottolineano che i paesi leader, in primo luogo Cina e Nord America, si approprierebbero del grosso dei vantaggi economici, mentre gli altri ne otterrebbero ritorni modesti. Nei paesi avanzati il livello elevato dei salari incentiverebbe la sostituzione del lavoro con le macchine, aprendo la via a sfide per il ricollocamento delle persone, ma anche a un generale miglioramento nelle condizioni di vita dei lavoratori che altrove non si verificherebbe. C’è poi il problema fondamentale delle regole alla base del controllo di un cervello (o di più cervelli) a cui sono collegati milioni di “corpi”, dai robot industriali a quelli che svolgono interventi chirurgici, dagli elettrodomestici ai mezzi di trasporto e ai droni militari. Il controllo di queste reti conferisce infatti un potere enorme a chi lo esercita.
Le azioni dell’Europa e dei governi nazionali
Le opportunità di crescita da un lato e i rischi dall’altro fanno sì che un intervento dei governi sia essenziale per sostenere lo sviluppo tecnologico e regolamentare l’uso delle applicazioni. L’UE ha pubblicato un documento di indirizzo sull’AI nell’aprile 2018, con l’obiettivo di promuovere la definizione di linee guida sui risvolti etici dell’intelligenza artificiale e gli investimenti. Attraverso il programma Horizon 2020, l’Unione europea già finanzia la ricerca in questo settore. Tra il 2014 e il 2017 sono stati realizzati progetti per un valore di circa 609 milioni, di cui l’Italia ha ottenuto il 12 per cento, terza dopo Germania e Regno Unito (figura 1.a), mentre in termini pro-capite siamo in linea con la media (figura 1.b). Le aree di ricerca principali sono la robotica e i sistemi autonomi, la simulazione e l’apprendimento delle macchine, l’interazione uomo-macchina (figura 2).
Cosa fanno i governi nazionali? La Cina ha elaborato una strategia ampia che promuove la formazione di competenze, industrializzazione dei risultati della ricerca e infrastrutture, tra cui un parco tecnologico da quasi 2 miliardi di euro nei pressi di Pechino. Negli Usa, è il settore privato che guida gli investimenti. Tuttavia, nonostante l’approccio di libero mercato dell’amministrazione Trump, le spese (dichiarate) da parte del Pentagono rimangono ingenti (oltre 6 miliardi di euro nel 2017). In Europa, la Francia ha introdotto un piano triennale da 1,5 miliardi, che finanzia non solo ricerca, ma anche e soprattutto sostegno alle start-up, mentre la Germania ha definito una strategia da 3 miliardi di investimenti entro il 2025 collegato all’iniziativa “Industrie 4.0”. Nel marzo 2018, l’Agenzia per l’Italia digitale ha redatto un Libro bianco su come facilitare l’adozione dell’intelligenza artificiale nella pubblica amministrazione e, più di recente, il ministero dello Sviluppo economico ha avviato l’elaborazione di una strategia nazionale. Sarebbe essenziale anche un piano di investimenti adeguati che faccia leva sulle competenze nazionali, ma il piccolo fondo introdotto dalla legge di bilancio, per interventi volti a favorire lo sviluppo di intelligenza artificiale, “blockchain” e “Internet delle cose”, è poca cosa (15 milioni l’anno fino al 2021) se confrontato con quanto investono i nostri concorrenti.
Per quanto riguarda i rischi legati all’uso o all’abuso delle tecnologie, richiedono risposte che vanno oltre il raggio d’azione dei singoli stati, ma il dibattito pubblico su regole e meccanismi di controllo sembra scoordinato e in ritardo rispetto al ritmo dei progressi tecnologici. Si tratta di un terreno su cui l’Italia, non da sola ma con il resto dell’UE, deve ritagliarsi un ruolo da protagonista, se vogliamo governare e non solo subire un cambiamento che produce conseguenze radicali sugli standard di vita, sulla sicurezza, sulla gestione dei servizi e delle infrastrutture.
Figura 1 – Risorse ottenute per progetti di ricerca sull’Intelligenza Artificiale a valere su Horizon 2020 (euro totali e pro-capite 2014-2017)
Fonte: Red©2019, Ismeri Europa, su dati grezzi Cordis. Nota: il dato sulla Svizzera è riferito al solo 2017.
Figura 2 – Aree di ricerca principali e prime dieci organizzazioni italiane per risorse ottenute (2014-2017)
Fonte: Red©2019, Ismeri Europa, su dati grezzi Cordis
Lavoce è di tutti: sostienila!
Lavoce.info non ospita pubblicità e, a differenza di molti altri siti di informazione, l’accesso ai nostri articoli è completamente gratuito. L’impegno dei redattori è volontario, ma le donazioni sono fondamentali per sostenere i costi del nostro sito. Il tuo contributo rafforzerebbe la nostra indipendenza e ci aiuterebbe a migliorare la nostra offerta di informazione libera, professionale e gratuita. Grazie del tuo aiuto!
stefano
purtroppo l’intelligenza artificiale , almeno quà da noi , è trasparente , noi non la vediamo , ma subiamo le sue applicazioni , se ci fosse la voglia , e la capacità, di utilizzare queste tecnologie per utilizzarle come supporto a processi decisionali di complessità medio bassa avremmo enormi vantaggi , soprattutto nella PA , ma , come si vede , pochissimi sanno di cosa si parla ..
Luigi Calabrone
Ma quale “intelligenza artificiale” in Italia, paese in cui da vent’anni si tenta a costituire un’anagrafe nazionale della popolazione e non si è ancora riusciti? Persino ii super commissario nazionale all’informatica, che proveniva da Amazon, ha gettato la spugna ed è rientrato al suo posto prima del termine previsto. “Italiani, siate seri” – come diceva Garibaldi già nel 1860!
Francesco Bizzotto
Dovremmo ri-partire da Aristotele (“Ciò che è in potenza è in potenza gli opposti”) e valutare / gestire insieme, in consapevolezza, i due lati della possibilità: i vantaggi sperati e le conseguenze negative temute della AI. Immaginare di dare campo senza limiti al solo lato positivo della AI è ingordigia ingenua e folle. Quale rimedio o regola? Obbligare ad assicurare le iniziative in forma All risk per Responsabilità di lungo periodo. Una polizza europea che anticipi e freni le follie.