Il Convegno fra Garante e INL si è svolto in occasione della giornata di sciopero dei riders, in seguito alla morte di Sebastian, ragazzo di 26 anni investito da un SUV mentre, con la sua bici, portava a termine una delle consegne che aveva preso in carico. In seguito al decesso, l’azienda, attraverso la piattaforma utilizzata per la gestione di ordini e consegne, ha licenziato il lavoratore per “mancato rispetto dei Termini e condizioni”.
Molti rider delle società aderenti ad Assodelivery (Glovo, Deliveroo, Uber) ma anche quelli inquadrati come dipendenti nel comparto logistica (Just Eat e Runner Pizza), hanno spento i motorini e fermato le biciclette con i colleghi. Le iniziative di protesta e sensibilizzazione si sono svolte in modo ordinato. A Firenze la piazza ha applaudito i fattorini che hanno esposto striscioni e scritte come “La mia vita vale più di un panino”.
Dall’altra parte, Mario Castagna, responsabile delle relazioni esterne dell'azienda, nel corso di diverse interviste (Repubblica e Corriere della Sera) ha dichiarato che “non è l’algoritmo a obbligare ad andare veloci”, “nessuno incita alla velocità e a non rispettare il codice della strada”. Parole che pesano, sia perché sembrerebbero scaricare interamente la responsabilità dell’incidente sul morto (la cui dinamica, peraltro, non è ancora stata chiarita); sia considerando che, sovente, incidenti di questo tipo vengono generati da un concatenarsi di fattori e condizioni, fra cui, ad esempio, il fare parte di un sistema che assegna un punteggio in base al numero degli ordini gestiti o in base a criteri orientati a generare la massima produttività. Il parroco, ai funerali di Sebastian, ha parlato di “un’economia che uccide”.
Questi elementi, abbinati all’estremo cinismo della comunicazione di licenziamento post-mortem, rendono bene l’idea di come l’algoritmo alla base del funzionamento della piattaforma usata da Glovo sia stato istruito – da persone reali – secondo logiche disumanizzanti. Durante il Convegno fra Garante e INL, anche Orazio Parisi, dirigente presso l’Ispettorato, ha affermato che i rapporti automatizzati sono spesso caratterizzati dalla completa mancanza della dimensione umana, generando nuovi abusi, anche ben nascosti.
Gli algoritmi dietro alle applicazioni di “platform working”, infatti, sono denominati “blind”, in quanto è difficile e, in certi casi, impossibile, verificare quali siano i criteri utilizzati alla base delle loro scelte. Pasquale Stanzione, presidente dall’Autorità Garante per la protezione dei dati personali, mette in guardia: dal caporalato si rischia di passare ad una nuova forma di “caporalato digitale”, ovvero il massimo sfruttamento dei lavoratori digitali, reso possibile dalle nuove tecnologie e dal sempre più frequente ricorso al lavoro su piattaforma.
Secondo la recente indagine “Internet and Platform Work Survey” condotta dall’ETUI (European Trade Union Institute), il ricorso al platform working ha visto una crescita esponenziale negli ultimi anni, in particolare in seguito al diffondersi della pandemia da COVID-19.
Per lavoro su piattaforma si intende l’attività lavorativa fornita per il tramite di una piattaforma digitale, che talvolta si sostituisce, più o meno prepotentemente, al datore di lavoro. Esistono due tipologie di platform working: la prima riguarda lavori effettuati “in loco”, quali la consegna di merci o di cibo, il trasporto di passeggeri, nonché altri servizi personali o domestici; la seconda attiene alle prestazioni di “crowdwork” o “clickwork”, ovvero attività lavorative svolte da remoto, quali traduzioni, assistenza alla ricerca, codifica dei dati, etichettatura di immagini e manutenzione di software.
Alla base del funzionamento delle piattaforme vi è un sistema di apprendimento automatizzato chiamato “machine learning”, che riceve degli input forniti dall’APP (dati, anche personali), per ricavarne degli output. L’output determina, ad esempio, gli orari di lavoro, i turni, l’assegnazione degli ordini, le modalità di erogazione della prestazione, etc.
In questo processo, i criteri scelti in fase di definizione e programmazione dell’algoritmo (le metriche e le logiche utilizzate), possono arrivare a produrre vere e proprie discriminazioni, oltre che un controllo “continuo ed anaelastico” della prestazione lavorativa (come dichiarato da Parisi nel corso del Convegno). Tuttavia, la completa mancanza di trasparenza può rendere molto più complesso provare che sia effettivamente avvenuta una discriminazione.
Da diversi anni la Commissione Europea sta cercando, attraverso svariate proposte di regolamentazione e atti preparatori, di rendere il processo alle spalle di ciascun algoritmo visibile ai lavoratori. Dal libro bianco sull’intelligenza artificiale di febbraio 2020 alla prima proposta di Legge sull'intelligenza artificiale (aprile 2021). In seguito si sono susseguite pubblicazioni e FAQ sul platform working; nuovi obiettivi strategici per incrementare il ricorso e la fiducia verso l’IA; proposte per proteggere i consumatori e promuovere l'innovazione. Le ultime iniziative di fine settembre intendono armonizzazione le norme nazionali in materia di responsabilità, agevolando l'ottenimento di risarcimenti da parte di chi ha subito danni connessi all'IA. La Vicepresidente per i Valori e la trasparenza Věra Jourová ha dichiarato: “Vogliamo che le tecnologie dell'intelligenza artificiale prosperino nell'UE, e perché questo sia possibile occorre che le persone abbiano fiducia nelle innovazioni digitali. Con la proposta odierna sulla responsabilità civile per l'intelligenza artificiale diamo ai consumatori strumenti di ricorso in caso di danni da essa causati, affinché possano beneficiare dello stesso livello di protezione di cui godono nel caso delle tecnologie tradizionali, e garantiamo la certezza del diritto per il nostro mercato interno”.
Allo stato attuale, tuttavia, non vi è ancora nulla di definitivo: il quadro giuridico comunitario rispecchia la frammentazione presente negli ordinamenti nazionali.
A livello nazionale, in un contesto normativo che fonda le proprie radici nel 1970 (lo Statuto dei lavoratori), è sempre più arduo trovare mezzi giuridici che possano tutelare in modo efficace i platform workers. La pandemia ha manifestato l’opacità e l’arretratezza della normativa giuslavoristica: “Il diritto è stato contagiato dal virus e non lo abbiamo vaccinato”, ha dichiarato Bruno Giordano, direttore dell’INL.
Nel corso del Convegno fra INL e Garante, la prof.ssa Patrizia Tullini, dell’Università di Bologna, ha mostrato come sia difficile inquadrare l’uso di strumenti innovativi sotto le tutele dell’art. 4 dello Statuto dei Lavoratori. Proprio per questo subentra la necessità di includere un approccio sistematico, che unisca le tutele della privacy e del giuslavoro sotto il tetto comune dei principi fondamentali e della “responsabilizzazione”. Anche i tecnici del diritto, in questo contesto, sono chiamati ad intervenire come “artigiani”, ovvero creatori di tutele in un sistema che non ha ancora deciso.
Il corpus normativo nazionale è stato, di recente, arricchito dal nuovo D.lgs. 104/2022, cd. “Decreto Trasparenza” (https://laborproject.it/2022/08/02/Decreto-Trasparenza-nuovi-adempimenti-tema-rapporto-di-lavoro-/). La norma, tuttavia, nell’imporre nuovi obblighi informativi in capo ai datori di lavoro, rinvia all’art. 4 dello Statuto dei lavoratori mediante la clausola di salvaguardia: “Resta fermo quanto disposto dall'articolo 4 della legge 20 maggio 1970, n. 300”. Per tale ragione, anche le Circolari dell’Ispettorato e del Ministero del lavoro, volte a fornire chiarimenti sull’applicazione della norma, non riescono a fugare del tutti i dubbi interpretativi e, anzi, manifestano la complessità di quelle che sono le principali fonti attualmente applicabili.
Così come i tecnici del diritto sono chiamati ad intervenire come “artigiani”, anche le organizzazioni, titolari del trattamento dei dati, devono essere in grado di operare una lettura sistematica delle norme, lettura che non può prescindere dai valori della persona. La chiave, per evitare di incorrere in sanzioni e per tutelare efficacemente i diritti dei lavoratori è responsabilizzarsi, in modo da garantire, ed essere in grado di dimostrare, che il trattamento è effettuato conformemente al Regolamento europeo in materia di protezione dei dati personali.