Lo sviluppo dell’intelligenza artificiale ha ormai reso possibile la sua applicazione anche al diritto. Esistono già software in grado di trovare soluzioni a piccole dispute o per calcolare il periodo di detenzione. Arriveranno anche i giudici-robot?

Intelligenza artificiale in tribunale

Marco Somalvico, un ingegnere specializzato scomparso quindici anni fa, definiva l’intelligenza artificiale come la disciplina informatica «che studia i fondamenti teorici, le metodologie e le tecniche che consentono la progettazione di sistemi hardware e software capaci di fornire all’elaboratore elettronico prestazioni che, a un osservatore comune, sembrerebbero essere di pertinenza esclusiva dell’intelligenza umana».

La recente accelerazione del suo sviluppo ha ormai reso possibili importanti applicazioni, dalla diagnosi medica alla guida di automobili, dal gioco degli scacchi all’investimento in borsa. Una delle frontiere è l’analisi del linguaggio naturale, che fa immediatamente pensare alla possibilità di risolvere controversie legali sulla base degli atti delle parti e della conoscenza delle norme: un computer e un algoritmo in grado di sostituirsi al giudice ed emanare sentenze non è fantascienza. Richard Susskind, uno studioso di Oxford e consulente di molti governi sull’applicazione dell’intelligenza artificiale al diritto, negli ultimi due decenni ha dipinto in numerose pubblicazioni il futuro delle professioni legali, ipotizzando in particolare che in una manciata di anni almeno alcune cause potrebbero essere decise da un giudice robot. La predizione risale peraltro almeno agli anni Sessanta (Lawlor, 1963). D’altronde, sono ormai molti gli studi legali e le società, anche in Italia, a usare questi strumenti per attività quali due diligence e analisi dei contratti: quello di JPMorgan, ad esempio, si chiama Coin.

Uno dei più interessanti contributi sul tema è un paper di un paio di anni fa, scritto da ricercatori inglesi, che contiene un curioso esperimento. Dopo aver fatto “studiare” a un algoritmo un certo numero di decisioni della Corte europea dei diritti umani (competente ad applicare l’omonima convenzione nelle dispute, di solito, tra individui e stati), si è dimostrato che il computer riusciva a risolvere le controversie, sulla base degli atti delle parti, esattamente come i giudici in carne e ossa nel 79 per cento dei casi. Il contributo offre peraltro affascinanti spunti su come i giudici ragionano: statisticamente, l’accuratezza della previsione è migliore quando l’algoritmo si basa sulle circostanze di fatto del caso descritte dalle parti che non sulla interpretazione della legge che forniscono. Il dettaglio suggerisce la rilevanza di come i giudici percepiscono i fatti, rafforzando l’idea che le preferenze ideologiche giocano un ruolo determinante nelle decisioni (“realismo legale”). Pur tenendo conto dei limiti metodologici, evidenziati dagli stessi autori che escludono che a breve i robot rimpiazzeranno i giudici persone fisiche, lo studio fa riflettere sul futuro.

Leggi anche:  C'era una volta l'abuso d'ufficio

Il futuro che è già qui

Un futuro che, invero, è già tra noi. LexMachina, un software di LexisNexis, sempre più usato dagli avvocati, predice ad esempio i possibili risultati di liti in materia di proprietà intellettuale. Modria, uno strumento di soluzione di piccole dispute online, è abitualmente usato dagli utenti di eBay. E il governo inglese sta lavorando a un simile progetto di più ampia portata. Ma ci sono anche applicazioni più sinistre in materia penale. Negli Stati Uniti, da anni le corti impiegano algoritmi per determinare la misura della cauzione e – in modo ancor più controverso – per calcolare il rischio di recidiva e, quindi, la misura della pena detentiva. Compas è una delle società che forniscono i necessari strumenti informatici alle corti. Recentemente, in Wisconsin, un imputato di nome Eric Loomis è stato condannato a sei anni di reclusione sulla base di un algoritmo Compas che lo classificava come ad alto rischio di recidiva sulla base di una serie di dati forniti al sistema. Nel 2016 la Corte suprema dello stato ha affermato la legittimità della procedura, rigettando il ricorso di Loomis. Interessanti alcuni degli argomenti spesi: da parte del condannato, che la non conoscenza del funzionamento dell’algoritmo violava il suo diritto a un processo equo, un’obiezione del tutto condivisibile e fondata nei precedenti, che però i giudici (umani) hanno ignorato. Le società fornitrici dei software, di contro, reclamano che i propri algoritmi sono segreti industriali che non possono essere divulgati, nemmeno agli imputati a cui si applicano.

Non è irragionevole pensare che il progresso dell’intelligenza artificiale potrà condurre a prodotti sempre più sofisticati effettivamente in grado, se forniti delle corrette informazioni, di dare risultati simili a quelli cui giungerebbe un essere umano. Così, però, si delinea un mondo distopico: chi vorrebbe essere giudicato per un presunto reato da un computer? O affiderebbe l’impugnazione del proprio licenziamento a una macchina? E questo – ossia la fiducia dei litiganti – è proprio uno dei punti più delicati. Il giudizio delle corti è accettato dalla società anche e proprio perché viene da un “pari”, da un essere umano, possibilmente empatico e soggetto a cambi di opinione. La stessa incertezza del giudizio e possibilità di convincere il giudicante rendono il processo e il suo esito socialmente valido. D’altro lato, un algoritmo è solo tanto preciso, imparziale ed equo quanto chi lo ha disegnato. Un eccellente paper del 2015 ha dimostrato come i principali algoritmi in uso negli Stati Uniti per quantificare le pene detentive discriminano (ingiustamente) a sfavore dei neri e a favore dei bianchi.

Leggi anche:  C'era una volta l'abuso d'ufficio

Gli sviluppi dell’intelligenza artificiale nel settore giuridico sono affascinanti, ma anche spaventosi. Certamente chi studia legge oggi ne deve tenere conto. Resta da comprendere se un algoritmo riuscirà mai a scrivere sentenze in versi, come era solito fare Michael Eakin, giudice della Corte suprema della Pennsylvania: ad esempio, nel 2002 affermò la responsabilità del fidanzato che aveva donato un anello di zirconi, del valore di 3.500 dollari, facendo credere alla promessa sposa che fosse un diamante da oltre 20 mila con una dissenting opinion in rima.

Lavoce è di tutti: sostienila!

Lavoce.info non ospita pubblicità e, a differenza di molti altri siti di informazione, l’accesso ai nostri articoli è completamente gratuito. L’impegno dei redattori è volontario, ma le donazioni sono fondamentali per sostenere i costi del nostro sito. Il tuo contributo rafforzerebbe la nostra indipendenza e ci aiuterebbe a migliorare la nostra offerta di informazione libera, professionale e gratuita. Grazie del tuo aiuto!

Leggi anche:  C'era una volta l'abuso d'ufficio