Lavoce.info

La tutela del lavoro ai tempi dell’intelligenza artificiale

Il 2 febbraio i rappresentanti dei 27 paesi Ue hanno approvato la normativa, la prima al mondo, per regolare l’AI nei rapporti di lavoro. Sono previste alcune garanzie solo per le applicazioni classificate “ad alto rischio”.

L’AI ha già conquistato spazi nell’organizzazione del lavoro

L’intelligenza artificiale coniugata con l’automazione ha già cambiato il modo di lavorare in molti settori. Pensiamo all’uso dei robot intelligenti nella logistica o in campo sanitario; o ad applicazioni come ChatGpt nell’editoria, nel design e negli altri lavori creativi. Si ripete quanto è già accaduto con la digitalizzazione in settori storicamente presidiati dal lavoro umano: come le banche, il pagamento dei pedaggi autostradali o le casse dei supermercati. Nessuno, credo, rimpiange le file agli sportelli, alle casse o ai caselli.

Ora si dà il caso che robot e sistemi, sempre più autonomi e intelligenti e sistemi sviluppati per garantire l’interazione uomo-macchina, incomincino a eseguire funzioni finora svolte esclusivamente dalle persone umane in settori come la diagnostica medica, la redazione di pareri, (parti di) atti giudiziari e altri snodi essenziale per la vita delle persone e dei sistemi democratici.

L’importanza della classificazione “ad alto rischio”

Si occupa anche di questi aspetti l’Artificial Intelligence Act, il regolamento proposto dalla Commissione Ue nel 2021 giunto alle battute finali dopo il negoziato tra Consiglio e Parlamento europeo del dicembre scorso. Non c’è ancora un testo definitivo, ma si tratta del primo regolamento al mondo che detta le regole per l’uso dell’intelligenza artificiale. Il regolamento propone di considerare ad alto rischio (art. 6 e allegato III) tutti i sistemi di intelligenza artificiale utilizzati dal datore di lavoro/committente per l’assunzione o la selezione del personale, per redigere annunci mirati, per analizzare o filtrare le candidature o valutare i candidati a una determinata posizione o per assegnare compiti in base al comportamento della persona o ai tratti o alle caratteristiche personali. Sono considerati ad alto rischio anche i sistemi di AI utilizzati per monitorare e valutare le prestazioni o il comportamento delle persone ingaggiate con un contratto di lavoro autonomo, o subordinato, o tramite una piattaforma digitale e quelli utilizzati per decidere se cessare o no un rapporto di lavoro.

Il regolamento europeo intende bilanciare l’innovazione tecnologica con la protezione dei diritti fondamentali, della salute e della sicurezza della persona anche quando l’AI è utilizzata sui luoghi di lavoro o per il controllo a distanza. Per esempio, modelli di AI possono essere utilizzati come componenti di sistemi per la sicurezza dei lavoratori (come le tute ergonomiche per la prevenzione e il controllo delle malattie muscolo-scheletriche) o di sistemi di monitoraggio della prestazione (come nel caso dell’uso di algoritmi per il controllo a distanza) e possono fornire in tempo reale moltissimi dati che vengono costantemente raccolti ed elaborati per prendere decisioni. I sistemi di AI possono poi essere utilizzati nell’istruzione o nella formazione professionale, per esempio per determinare l’accesso o l’assegnazione delle persone a istituti o programmi d’istruzione e formazione professionale a tutti i livelli, o per valutare i risultati dell’apprendimento delle persone (così il considerando 35). Questi sistemi possono violare il diritto all’istruzione e alla formazione, negandone l’accesso, oppure possono violare il diritto a una occupazione o a una progressione nella carriera o alla prosecuzione di un rapporto di lavoro, se sono progettati senza tener conto dei divieti di discriminazione nei confronti delle donne, delle persone disabili o delle persone con un determinato orientamento sessuale, o anziane. Inoltre, i sistemi di AI utilizzati per monitorare le prestazioni o il comportamento dei lavoratori possono ledere la protezione dei dati personali incidendo indebitamente sulla vita privata: restano impregiudicati gli obblighi derivanti dal regolamento europeo per la privacy n. 2016/679.

Leggi anche:  Superbonus: la nuova stretta colpisce i più deboli

Gli obblighi da rispettare per la tutela dei diritti e delle libertà fondamentali

La proposta, frutto di un articolato compromesso politico, segue un approccio basato sul rischio e mira a garantire la certezza del diritto. Prevede una serie di obblighi di trasparenza da rispettare per la commercializzazione e l’utilizzo di questi sistemi, inclusa l’AI generativa (come ChatGpt, che inizialmente non era compresa nelle fattispecie disciplinate). Per l’utilizzo dei sistemi ad alto rischio è necessaria una valutazione d’impatto preventiva sui diritti fondamentali delle persone (art. 29), anche quando l’utilizzatore è una piattaforma digitale; è inoltre obbligatoria la sorveglianza umana prima dell’immissione di un’AI sul mercato (art. 14), volta ad assicurare che i sistemi ad alto rischio non provochino danni anche involontari; e una sorveglianza umana in corso d’opera da parte di personale specializzato per prevenirne l’uso improprio e garantire che l’operatore non faccia automaticamente affidamento sull’output generato dall’AI ad alto rischio (cosiddetta distorsione dell’automazione).

È poi previsto l’obbligo d’informazione nei confronti delle persone soggette a un sistema di AI e il loro diritto di ricevere spiegazioni sull’eventuale decisione del sistema; il rispetto di standard di sicurezza da parte sia degli sviluppatori, sia degli utilizzatori; il diritto di presentare un ricorso, anche collettivo, o un reclamo contro le decisioni prese da sistemi di AI ad altro rischio errate o illegittime. Sempre per la fornitura e l’utilizzo di sistemi ad alto rischio sono previsti obblighi di registrazione in una apposita banca dati europea (art. 51). Obblighi di trasparenza sono previsti anche per i sistemi di intelligenza artificiale che generano o producono immagini, video o audio che potrebbero sembrare autentici come nel caso di deep fake, chatbot o contenuti generati da un’AI. Ed è previsto l’obbligo di informare le persone fisiche del fatto che stanno interagendo con un sistema di AI ad alto rischio anche nei casi in cui i sistemi consentono il riconoscimento delle emozioni (che, stando all’ultima versione dell’accordo, dovrebbe essere vietato sui luoghi di lavoro e negli istituti d’istruzione).

Leggi anche:  Città più aperte contro il caro-affitti

L’obiettivo del regolamento è rendere questi meccanismi, sempre più utilizzati, affidabili e accurati, perché sono capaci di incidere pesantemente sui diritti fondamentali delle persone protetti dalla Carta dell’Ue come la dignità umana, il rispetto della vita privata, della famiglia, dei dati personali, della libertà di espressione e d’informazione, della libertà di riunione e di associazione, della non discriminazione, della protezione dei lavoratori, dei consumatori, delle persone con disabilità e dei minori.

Per l’approvazione definitiva del regolamento mancano alcuni passaggi formali. Il voto finale è previsto per aprile, mentre per l’entrata in vigore ci vorranno altri due anni. Nel frattempo, le aziende possono continuare a sperimentare soluzioni di AI con l’unico limite, che vale solo per il caso italiano (art. 1-bis Dlgs 104/2022 come modificato dal decreto n. 48/2023), di rispettare gli obblighi di informazione ai lavoratori o ai sindacati sul funzionamento dei sistemi decisionali o di monitoraggio, ma solo nel caso in cui siano interamente automatizzati.

Lavoce è di tutti: sostienila!

Lavoce.info non ospita pubblicità e, a differenza di molti altri siti di informazione, l’accesso ai nostri articoli è completamente gratuito. L’impegno dei redattori è volontario, ma le donazioni sono fondamentali per sostenere i costi del nostro sito. Il tuo contributo rafforzerebbe la nostra indipendenza e ci aiuterebbe a migliorare la nostra offerta di informazione libera, professionale e gratuita. Grazie del tuo aiuto!

Leggi anche:  Occupazione senza crescita, il puzzle del 2023

Precedente

Il Punto

Successivo

Diritto allo studio per molti, ma non per tutti*

  1. B&B

    In Italia i permessi urbanistici vengono approvati da commissioni formate da politici consiglieri comunali. Generalmente, incapaci di valutare, approvare consapevolmente oppure negare con argomentazione, progetti di trasformazione del terrritorio redatti da architetti e ingegneri liberi professionisti, necessariamente (SENIOR) dopo almeno dieci anni di pratica professionale nel mercato privato.
    Cosa succederebbe se al posto di una commissione urbanistica di politici ci fosse un (AI) che decide?
    Succederebbe che dovremmo avere LEGGI in materia obbligatoriamente precise e inequivocabili.
    Se cosi’ fosse pero’ LA POLITICA non avrebbe piu’ IL POTERE di decidere chi deve passare e lavorare e chi no.
    Lo perderebbe (vd. riferimento alle tessere che fanno punteggio, estorsioni e tangenti).

    Allora possiamo concludere che l’ (AI) non avrà futuro nella civilizzazione e democratizzazione dell’apparato pubblico che, invece, rimarrà da paese arretrato.

    • Savino

      Anche e, direi, soprattutto, nelle loro versione più lecita e candida, la politica ed il diritto non sono matematica, nè geometria, nè calcolo del cemento armato o della prospettiva. Anzi è inconcepibile che le leggi in Italia le facciano gli urbanisti e non i giuristi e gli esperti di politiche pubbliche, che ne sono legittimati per competenza. La non ponderatezza e lo scriterio di tanti interventi legislativi è dovuto essenzialmente alla intromissione non giustificata di un certo affarismo e lobbismo di professionisti eccessivamente “interessati”. La tradizione umanistica che ha l’Italia, dal Rinascimento in poi, dovrebbe segnare maggiormente la strada in questo campo, con la rappresentazione filosofica del bene comune, dell’interesse di tutti, spazzando via i soliti legulei e sostituendoli con chi conosce la redazione normativa e le esigenze economiche e sociali che portano ad una decisione politica e giuridica.

Lascia un commento

Non vengono pubblicati i commenti che contengono volgarità, termini offensivi, espressioni diffamatorie, espressioni razziste, sessiste, omofobiche o violente. Non vengono pubblicati gli indirizzi web inseriti a scopo promozionale. Invitiamo inoltre i lettori a firmare i propri commenti con nome e cognome.

Powered by WordPress & Theme by Anders Norén