Lavoce.info

Quando è vietato dare un voto al lavoratore con l’IA

Una sentenza della Corte di giustizia Ue (n. 203/2025) delinea i limiti dell’uso dell’intelligenza artificiale in ambito lavorativo. Per esempio, quali sono i vincoli alla prassi di attribuire punteggi ai lavoratori delle piattaforme basati sui giudizi dei clienti.

Social scoring e pratiche vietate

Con l’espressione social scoring si indica la prassi di attribuire un “punteggio sociale” a persone o gruppi di persone sulla base della profilazione del loro comportamento sociale o delle caratteristiche personali, attuata per mezzo di sistemi automatizzati.

In base al recente regolamento europeo sull’intelligenza artificiale questi sistemi sono vietati (art. 5.1, lett. c, reg. 2024/1689): a) se conducono a trattamenti sfavorevoli o dannosi in contesti non correlati (per esempio: un’agenzia di assistenza sociale utilizza un sistema di intelligenza artificiale per stimare la probabilità di frode da parte dei beneficiari di assegni familiari, basandosi su caratteristiche raccolte o dedotte da contesti sociali senza alcuna apparente connessione o rilevanza per la valutazione del rischio di frode, come avere un coniuge di una certa nazionalità o origine etnica, avere o no una connessione Internet, comportamento sulle piattaforme social o prestazioni sul posto di lavoro); b) oppure conducono a trattamenti sproporzionati rispetto alla gravità del comportamento (per esempio, un ente pubblico utilizza un sistema di intelligenza artificiale per profilare le famiglie e individuare precocemente i bambini a rischio, basandosi su criteri quali la salute mentale e la disoccupazione dei genitori, ma anche su informazioni circa il comportamento sociale dei genitori tratte da molteplici contesti). I due criteri sono tra loro alternativi, ma possono applicarsi anche congiuntamente. Per valutare se almeno uno di essi sia soddisfatto, è sempre necessaria un’analisi caso per caso, poiché la ancora limitata esperienza acquisita in questo campo non consente di individuare categorie omogenee e predefinite di comportamenti che possano considerarsi senz’altro socialmente pericolosi oppure no.

Il punteggio sociale assegnato per mezzo di sistemi di IA è di regola vietato perché può determinare a priori un trattamento pregiudizievole o sfavorevole di singole persone o di interi gruppi, che può risultare in concreto ingiustificato o sproporzionato rispetto al loro comportamento sociale.

Recenti linee guida (non vincolanti) della Commissione forniscono spiegazioni in proposito ed esempi pratici per chiarire quali pratiche basate sull’intelligenza artificiale sono vietate.

Tuttavia, la distinzione tra pratiche legittime e pratiche vietate resta molto incerta: è dunque raccomandata molta prudenza nell’impiego di sistemi IA, anche in considerazione delle consistenti sanzioni previste dall’AI Act per la violazione del divieto.

La decisione della Corte di giustizia

Un contributo assai significativo alla comprensione del fenomeno giunge dalla Corte Ue di Lussemburgo, che in una recente sentenza interpreta le norme del regolamento sulla privacy (regolamento n. 2016/679 – Gdpr -, art. 15) in un caso di social scoring.

Un operatore di telefonia mobile aveva negato la conclusione di un contratto, che avrebbe comportato il pagamento mensile di dieci euro, a una cittadina austriaca adducendo che, in base a una valutazione automatizzata della capacità di pagamento (la cosiddetta profilazione), era emersa una insufficiente solvibilità finanziaria della potenziale cliente. Secondo la Corte, la valutazione automatizzata della solvibilità di una persona e il conseguente diniego di stipulazione di un contratto di telefonia mobile non può prescindere dalla spiegazione di come siano raccolti e trattati i dati personali per mezzo dell’algoritmo. Si deve quindi ritenere che il Gdpr offra alla persona interessata un vero e proprio diritto alla spiegazione circa il meccanismo posto alla base di un processo decisionale automatizzato di cui la persona stessa è stata oggetto e circa il risultato a cui ha condotto. La spiegazione, secondo il regolamento, deve essere fornita mediante informazioni pertinenti, in forma concisa, trasparente, intelligibile e facilmente accessibile.

La Corte specifica che questi requisiti non sono soddisfatti né dalla comunicazione di una formula matematica complessa, come un algoritmo, né dalla descrizione dettagliata di tutte le fasi di un processo decisionale automatizzato, in quanto né l’una né l’altra comunicazione costituiscono una spiegazione sufficientemente concisa e comprensibile. In buona sostanza, i titolari del trattamento dei dati devono descrivere la procedura e i principi concretamente applicati in modo tale che l’interessato possa comprendere quali dati personali sono stati utilizzati nel processo decisionale automatizzato e come sono stati utilizzati, senza che la complessità delle operazioni da eseguire possa esonerare il titolare del trattamento dal dovere di spiegazione.

Nel rendere trasparente il processo decisionale automatizzato, il titolare del trattamento dei dati deve inoltre garantire che non sia violato il diritto di terzi o il diritto al riserbo su dati commerciali riservati. Ma la doverosa cautela non può, da sola, essere addotta per negare l’accesso alle informazioni richieste dalla persona interessata. In casi in cui si renda necessario proteggere il know-how o le informazioni commerciali riservate, il titolare è tenuto a comunicare le informazioni che potrebbero essere protette dal segreto all’autorità di controllo o al giudice competente, cui spetta il compito di ponderare i diritti e gli interessi in gioco al fine del loro bilanciamento.

L’utilizzo nei rapporti di lavoro

Questi principi sono assai utili quando si tratti di valutare e qualificare come legittima o no la prassi di attribuire punteggi ai lavoratori basati anche sui giudizi espressi dai clienti nelle attività svolte per mezzo di piattaforme digitali.

Nelle Linee guida della Commissione sono riportati due esempi di social scoring assai significativi. Uno riguarda le valutazioni individuali che i singoli utenti assegnano alla qualità di un servizio reso nel lavoro tramite piattaforme digitali: ad esempio, la valutazione di un autista operante mediante una piattaforma di car-sharing online. Le valutazioni sono legittime se sono la mera aggregazione di punteggi attribuiti al comportamento dai singoli utenti, che non richiede necessariamente l’IA. Se invece le valutazioni sul servizio reso sono combinate con altre informazioni e analizzate in modo automatico dal sistema di IA per classificare gli individui, devono essere considerate vietate (secondo l’art. 5, lett. c, dell’AI Act).

Un altro esempio è costituito dalla profilazione operata da un’agenzia per l’impiego pubblica o privata che assegni un punteggio ai disoccupati dopo un’intervista e una valutazione basata sull’IA, al fine di determinare se un individuo debba beneficiare o no del sostegno del reddito. Questo modo di assegnare il punteggio, se si basa su caratteristiche personali neutre, come età e titolo di studio, è lecito. Ma se include anche variabili raccolte o dedotte da dati e contesti senza alcuna connessione con lo scopo della valutazione, come stato civile, dati sanitari relativi a malattie croniche o dipendenze, deve considerarsi vietato.

In conclusione, il regolamento sull’IA deve essere integrato con la normativa dell’Unione sulla protezione dei dati (il reg. 2016/679 a cui si riferisce la sentenza citata della Corte di giustizia), poiché i sistemi di IA elaborano dati personali relativi a persone fisiche identificate o identificabili, i quali devono essere trattati nel rispetto dei principi e delle regole vigenti nell’Unione. Spesso le due fonti normative utilizzano le stesse nozioni, come quella di profilazione consistente nell’uso di informazioni su un individuo (o un gruppo di individui) e nella valutazione delle sue caratteristiche o modelli comportamentali al fine di inserirlo in una determinata categoria o gruppo. Ed è bene tenere a mente le numerose interpretazioni fornite dalla giurisprudenza della Corte di giustizia sulle modalità di trattamento automatizzato dei dati personali.

Lavoce è di tutti: sostienila!

Lavoce.info non ospita pubblicità e, a differenza di molti altri siti di informazione, l’accesso ai nostri articoli è completamente gratuito. L’impegno dei redattori è volontario, ma le donazioni sono fondamentali per sostenere i costi del nostro sito. Il tuo contributo rafforzerebbe la nostra indipendenza e ci aiuterebbe a migliorare la nostra offerta di informazione libera, professionale e gratuita. Grazie del tuo aiuto!

Precedente

Il fiscal drag migliora i conti pubblici. Ma chi paga?

Successivo

Quella certezza che manca nella Savings and Investments Union

  1. Il problema delle KPI è che misurano quasi sempre parametri poco correlati con il valore che il lavoratore produce come il giudizio del cliente spesso assomiglia a quello del medico pietoso che fa la piaga gangrenosa…

    Il management un tempo stimava il valore del lavoratore sulla base del suo atteggiamento, ignorando completamente se portava valore o meno, oggi che col telelavoro diventa difficile stimare così (in realtà non lo è per nulla, ma non si dichiara ufficialmente perché la sorveglianza digitale circa tutti la praticano ed è formalmente illegale quindi i più negano di praticarla) non si sa come misurare ciò che davvero fa un lavoratore in termini di valore prodotto.

    Sinché questo problema non sarà risolto ammettendo che la learning organisation è una necessità beh, non si andrà lontano.

Lascia un commento

Non vengono pubblicati i commenti che contengono volgarità, termini offensivi, espressioni diffamatorie, espressioni razziste, sessiste, omofobiche o violente. Non vengono pubblicati gli indirizzi web inseriti a scopo promozionale. Invitiamo inoltre i lettori a firmare i propri commenti con nome e cognome.

Powered by WordPress & Theme by Anders Norén