
Le sfide della gestione dei lavoratori con intelligenza artificiale e algoritmi

Bilbao, 21 Mar – La campagna europea (2023/2025) “ Lavoro sano e sicuro nell’era digitale”, promossa dall’Agenzia europea per la sicurezza e la salute sul lavoro ( EU-OSHA) e di cui PuntoSicuro è media partner, è entrata nel suo ultimo anno e si concluderà con un summit che avrà luogo a Bilbao a dicembre di quest’anno.
Divisa in vari step informativi, ci ha permesso di conoscere i vantaggi, ma specialmente, le sfide e i rischi connessi all’evoluzione tecnologica e alle novità dello sviluppo digitale nel mondo del lavoro. Abbiamo parlato del lavoro su piattaforma digitale, dell’automazione, dell’utilizzo di sistemi robotici e del lavoro da remoto.
Ci soffermiamo oggi su un importante nuovo e significativo tema della campagna europea, relativo alla gestione dei lavoratori con l'intelligenza artificiale (IA) e con gestione algoritmica. Un tema significativo sia per la pochissima conoscenza delle problematiche e dei rischi, ma anche per le preoccupazioni dovute all’assente o lacunosa trasparenza degli algoritmi, alle possibili conseguenze negative sui lavoratori e ai pericoli relativi alla protezione dei loro dati personali.
Per parlarne, anche con riferimento agli aspetti positivi di questi sistemi di gestione, abbiamo nuovamente intervistato uno dei responsabili dei contenuti della campagna europea, Maurizio Curtarelli, Senior Research Project Manager - Prevention and Research Unit dell’Agenzia europea EU-OSHA.
In questa nuova e ampia intervista poniamo al rappresentante dell’Agenza EU-OSHA le seguenti domande:
- Quali sono stati i primi step affrontati nella campagna?
- Cosa si intende con gestione dei lavoratori con l'intelligenza artificiale e con gestione algoritmica? C’è differenza tra gestione tramite IA e gestione algoritmica?
- Ci sono dati per comprendere la dimensione del problema in merito alla diffusione nelle aziende di questi strumenti di gestione?
- Quali sono vantaggi nell’uso di queste nuove tecnologie? Ci sono esempi positivi tratti dalle ricerche, dai casi studio pubblicati dall’Agenzia?
- Quali sono i principali rischi e sfide associati all'implementazione di questi sistemi
- Tra i rischi indicati quali sono i più rilevanti? E perché?
- Quali sono le implicazioni dell'uso di questi sistemi per la privacy dei lavoratori e la protezione dei dati personali? Come trovare il giusto equilibrio tra sicurezza, efficienza e tutela della privacy?
- Quali misure è possibile adottare per mitigare i rischi associati a questi sistemi e garantire che siano utilizzati in modo etico e responsabile? Come garantire la trasparenza nell'uso dei dati e degli algoritmi?
- La gestione con intelligenza artificiale e algoritmica non rischio di aumentare le difficoltà nell’individuazione di eventuali responsabilità? Cosa succede quando i poteri datoriali vengono esercitati mediante il ricorso a processi decisionali automatizzati? Chi è responsabile in caso di decisioni errate?
- Qual è il ruolo della formazione, della consultazione e della partecipazione dei lavoratori nei processi decisionali relativi a questi sistemi?
- Cosa è stato fatto a livello normativo e cosa si può fare per migliorare ulteriormente la situazione e garantire che questi sistemi siano utilizzati a vantaggio sia delle aziende che dei lavoratori?
L’articolo si sofferma su vari argomenti:
- Gestione dei lavoratori con IA e algoritmi: significato e dimensione
- Gestione dei lavoratori con IA e algoritmi: vantaggi, sfide e rischi
- Gestione dei lavoratori con IA e algoritmi: privacy, prevenzione e normativa
Come sempre diamo ai nostri lettori la possibilità di visualizzare integralmente l’intervista e/o di leggerne una parziale trascrizione.
L’intervista di PuntoSicuro a Maurizio Curtarelli
Gestione dei lavoratori con IA e algoritmi: significato e dimensione
Siamo arrivati ad un nuovo step della campagna europea che si conclude quest’anno. Ricordiamo, brevemente, i primi tre step e vediamo di comprendere, brevemente, di cosa parleremo oggi…
Maurizio Curtarelli: Sì, in primo luogo, buongiorno e grazie per l'invito, sempre molto benvenuto, a parlare delle nostre attività e, in particolare, della campagna di sensibilizzazione che è tutt'ora in corso e che, come dicevi, si concluderà. È vero, mancano ancora un po' di mesi, però si concluderà alla fine di quest'anno con un summit che avrà luogo a Bilbao al all'inizio proprio di dicembre.
Allora, sin qui abbiamo parlato, in primo luogo, della questione del lavoro su piattaforma digitale; quindi abbiamo sensibilizzato sui rischi connessi al lavoro su piattaforma. La seconda area prioritaria di cui ci siamo occupati è stata quella dell'automazione dei compiti lavorativi, quindi abbiamo parlato dell'utilizzo di macchine, software, intelligenza artificiale per automatizzare dei compiti che prima erano svolti dagli umani. Abbiamo anche evidenziato, ovviamente non soltanto i rischi per i lavoratori, ma anche le opportunità che l'automazione offre, per esempio consente di muovere il lavoratore dallo svolgimento di compiti particolarmente pericolosi o rischiosi.
Abbiamo poi parlato del lavoro ibrido e da remoto e anche in quel caso ci siamo occupati di diffondere, di disseminare i risultati delle nostre attività di ricerca sul telelavoro, sul lavoro da remoto, sull'utilizzo di tecnologie digitali per lavorare da remoto, comprese le tecnologie di realtà virtuale e realtà aumentata.
Adesso ci rimangono due ultime aree prioritarie su cui continuiamo a sensibilizzare sia per i rischi che per le opportunità.
Mi pare che siamo arrivati oggi al penultimo step.
Maurizio Curtarelli: Esatto. Abbiamo la penultima area prioritaria. Abbiamo iniziato a promuoverla all'inizio di marzo del 2025 e fino a giugno continueremo a parlare di gestione algoritmica e di utilizzo di intelligenza artificiale per la gestione dei lavoratori.
Credo sia necessario capire bene cosa si intende con gestione dei lavoratori con l'intelligenza artificiale e con gestione algoritmica. Immagino che se ne parli sempre in relazione all’ambito salute e sicurezza. C’è differenza tra gestione con l’intelligenza artificiale e gestione algoritmica?
Maurizio Curtarelli: Una domanda molto molto pertinente, anche perché nella letteratura di riferimento e nell'evidenza empirica che abbiamo raccolto diciamo si fa riferimento alla gestione algoritmica e alla gestione basata sull'intelligenza artificiale in maniera un po' intercambiabile. In effetti l'intelligenza artificiale utilizza degli algoritmi, ovvero delle sequenze di istruzioni per funzionare.
Noi [questi termini] li utilizziamo in maniera intercambiabile; tuttavia, forse con il parlare di gestione attraverso l’intelligenza artificiale si vuole far riferimento ad algoritmi più complessi che riescono anche a prevedere, per esempio, il comportamento del lavoratore. Tuttavia si tratta di sfumature. Quindi li continueremo a chiamare in maniera intercambiabile.
Diciamo che nella letteratura si fa riferimento alla gestione algoritmica come una caratteristica prevalente, caratterizzante, del lavoro su piattaforma. Quindi si parla dell'utilizzo di sistemi algoritmici per l'allocazione automatica di compiti lavorativi, di turni, eccetera, eccetera, al lavoratore. E avviene un costante monitoraggio del comportamento e delle attività del lavoratore per decidere se allocare o meno, e che tipo, altri ulteriori compiti lavorativi. (…)
Quindi parliamo di un sistema che permette di organizzare e gestire il lavoro del lavoratore, a distanza, in maniera automatizzata o semiautomatizzata, raccogliendo grandi volumi di dati, attraverso tecnologie digitali di vario tipo, dai sensori, alla tastiera del computer per chi lavora, per esempio, in un ufficio. Quindi grandi volumi di dati sul lavoratore, sulla sua performance e anche sull'ambiente di lavoro. Questi dati vengono poi inseriti in dei modelli che appunto utilizzano algoritmi più o meno complessi per formulare, capire qual è il comportamento del lavoratore. E sulla base di questo individuare dei trend e allocare compiti lavorativi in maniera automatizzata o anche fare delle predizioni sul lavoratore, capire se questo è un lavoratore, per esempio, che per l'intensità del lavoro che svolge è a rischio di burnout (…).
Ci sono dati per comprendere la dimensione del problema in merito alla diffusione nelle aziende di questi strumenti di gestione dei lavoratori?
Maurizio Curtarelli: Certo. Noi abbiamo la nostra indagine Esener (Indagine europea tra le imprese sui rischi nuovi ed emergenti, NdR) che è condotta su un campione rappresentativo di imprese nell'Unione Europea. Dall'indagine Esener sappiamo che, per esempio, l'utilizzo di tecnologie per determinare il contenuto o il ritmo del lavoro (…) avviene nel 12% delle aziende nella media dell'Unione Europea. Oppure l'8% di aziende nell'Unione Europea riferisce di utilizzare tecnologie per supervisionare il rendimento del lavoratore. Ora noi stiamo parlando di ovviamente un dato medio europeo. Abbiamo ovviamente una grande diversità all'interno dell'Unione Europea. Ci sono paesi in cui le imprese fanno un uso molto più significativo di queste tecnologie e in altri paesi abbiamo ovviamente un uso molto più ridotto. Tuttavia stiamo parlando di un dato del 2019.
A breve inizieremo a diffondere i dati dell'indagine più recente che è stata condotta e si è conclusa alla fine del 2024 e vedremo cosa ci indica.
Voglio anche citare che, per esempio, un 5% delle imprese dell'Unione Europea riferisce che i propri lavoratori utilizzano dispositivi indossabili, sensori e altre tecnologie simili, ovvero altri elementi che permettono l'implementazione della gestione algoritmica.
Inoltre la nostra indagine invece OSH Pulse, che è condotta su un campione rappresentativo di lavoratori, ci indica che comunque un terzo dei lavoratori in Europa riferisce che le tecnologie digitali vengono utilizzate per l'assegnazione automatica di compiti, orari di lavoro o turni, oppure per far valutare le prestazioni lavorative da terzi, per esempio da clienti. (…)
Gestione dei lavoratori con IA e algoritmi: vantaggi, sfide e rischi
Veniamo ai vantaggi della gestione dei lavoratori con queste nuove tecnologie. Quali possono essere? Ci sono esempi positivi tratti dalle ricerche, dai casi studio pubblicati dall’Agenzia?
Maurizio Curtarelli: Ovviamente questi sistemi possono avere un utilizzo molto positivo per il miglioramento della salute e sicurezza sul lavoro o comunque in un'ottica di prevenzione dei rischi.
Per esempio, le tante informazioni sulla performance lavorativa possono essere utili per migliorare la programmazione o l'allocazione di compiti o turni tenendo conto anche delle caratteristiche del lavoratore. Lavoratori più anziani possono essere più lenti nello svolgere alcuni compiti. Lavoratori più giovani possono tollerare una maggior velocità nell'eseguire certi compiti.
Sicuramente noi abbiamo individuato che un altro utilizzo potenziale positivo è quello di ottimizzare l'organizzazione del lavoro. Per esempio, tarando in maniera opportuna e calcolando in maniera quasi scientifica i carichi di lavoro del singolo lavoratore.
Tutte le informazioni che raccolgono queste tecnologie sicuramente possono permettere di eseguire un monitoraggio accurato dei rischi. Non solo, ma questi sistemi possono mandare degli alert, nel caso ci siano dei rischi in quel momento e fornire delle indicazioni al management per intervenire. Le informazioni che vengono raccolte possono poi indicare delle aree problematiche. (…) Queste informazioni permettono, comunque, di individuare dei problemi e naturalmente di disegnare anche le soluzioni più idonee. Inoltre, possono essere senz'altro utilizzate per condurre in maniera ottimale una valutazione dei rischi che ricordo è un obbligo del datore di lavoro. Ancora un altro esempio, per esempio, è l'utilizzo di queste informazioni per fornire counseling digitale personalizzato per i lavoratori. (…).
Infine, abbiamo visto anche come le informazioni raccolte possono essere un input per programmi di formazione, sia in generale in materia di salute e sicurezza sul lavoro, ma anche legata, per esempio, alla prevenzione dei rischi connessi con l'utilizzo delle tecnologie digitali.
Vorrei specificare però che, nella pratica, questi utilizzi delle tecnologie di gestione algoritmica sono piuttosto limitati, in realtà. Abbiamo condotto uno studio in cui abbiamo analizzato circa 5.000 brevetti nell'ambito della gestione algoritmica e il focus principale è sempre quello del miglioramento dell'efficienza e della produttività. In misura molto, ma molto inferiore, invece, c'è come, sotto focus di queste tecnologie, un miglioramento della salute e sicurezza sul lavoro.
Tuttavia la potenzialità c'è tutta ed è importante - e quello è il nostro compito - individuare quali sono gli elementi che possano attivare un percorso virtuoso di utilizzo di queste tecnologie in senso migliorativo per salute e sicurezza, nel senso della protezione della salute del lavoratore.
Veniamo ora alle tante sfide e rischi per la salute e sicurezza. Quali sono i principali rischi e sfide associati all'implementazione di questi sistemi?
Maurizio Curtarelli: Noi abbiamo individuato diversi rischi connessi all'utilizzo di queste tecnologie di gestione algoritmica dei lavoratori.
Uno di questi è, per esempio, il costante monitoraggio e la sorveglianza in alcuni casi, piuttosto pervasiva del lavoratore, che si traduce spesso in una ridotta autonomia del lavoratore sul lavoro e un controllo piuttosto accurato delle attività svolte, l'impossibilità di poter scegliere, per esempio, l'ordine del la sequenza delle task lavorative. Come sappiamo, l'autonomia del lavoratore è una risorsa che permette al lavoratore di minimizzare gli impatti in termini di stress, eccetera. Il lavoratore che non ha autonomia, e quindi è eterodiretto nello svolgimento dei propri compiti, è un lavoratore che è molto esposto a stress, burnout ed altri problemi di salute mentale.
Sicuramente si assiste ad una intensificazione del lavoro, legata da un lato alla maggior pressione per raggiungere determinati target di produzione e dall'altro dettata proprio dal ritmo del software che è, ovviamente, settato per accelerare il ritmo di lavoro e, quindi, spingere il lavoratore verso una direzione a cui si fa “fatica a stare dietro”.
Un altro dei problemi che abbiamo spesso incontrato è che la gestione algoritmica porta in qualche modo all'isolamento del lavoratore. Quindi c'è una ridotta interazione, per esempio con i colleghi o anche con i manager. Si dice nella letteratura quando “l'algoritmo è il tuo boss”, il tuo manager.
Una risorsa molto importante sul luogo di lavoro è proprio il poter fare affidamento, il poter chiedere ed ottenere l'appoggio, il sostegno dei colleghi o anche del dei manager in caso di bisogno, in caso di dubbio, in caso di un problema. Con l'utilizzo della tecnologia digitale, quando l'algoritmo è il tuo manager, ovviamente questo diventa complicato (…).
E se, ovviamente, non ci sono una serie di accortezze, che richiameremo immagino tra qualche minuto, si hanno impatti di natura psicosociale, di salute mentale.
Tuttavia, noi abbiamo anche riscontrato una maggior probabilità di incidenti, infortuni dei lavoratori che sono soggetti a gestione algoritmica, legate appunto alla velocità con cui si deve lavorare.
Immaginati lavorare in un magazzino e spostare queste merci a grande velocità, guidati da un sensore che hai sul polso che ti dice "Vai a destra, vai a sinistra", il tutto molto velocemente perché i target sono molto alti. Ecco, le possibilità di incidenti o infortuni lì sono molto elevate.
(…)
Gestione dei lavoratori con IA e algoritmi: privacy, prevenzione e normativa
Quali sono le implicazioni dell'uso di questi sistemi per la privacy dei lavoratori e la protezione dei loro dati personali? Come trovare il giusto equilibrio tra sicurezza, efficienza e tutela della privacy?
Maurizio Curtarelli: Questo è un tema molto, molto importante. Diciamo che queste tecnologie raccolgono grandi quantità di informazioni sul lavoratore, grandi quantità di dati su quello che il lavoratore fa. Queste tecnologie ti permettono di raccogliere dati oltre a quanto strettamente necessario. Quindi possono anche raccogliere dati personali concernenti la vita privata del lavoratore.
Questi sistemi di monitoraggio possono tracciare quello che fa il lavoratore, possono individuare le emozioni del lavoratore. L'intelligenza artificiale può analizzare i testi di una email che mandi per capire se tu sei arrabbiato in quel momento, anche se magari per fatti tuoi personali, perché il tono magari è un po' più forte.
Ecco, questi sono esempi di informazioni che vengono raccolte e che possono anche essere utilizzate in maniera controproducente per il lavoratore.
Allora, se da un lato, ovviamente, c'è un problema serio, potenziale, in Europa va detto che siamo protetti dalla normativa sulla GDPR, la normativa sulla protezione dei dati che proibisce l'utilizzo, la raccolta e l'utilizzo di informazioni che riguardano la vita personale del lavoratore. E la raccolta dei dati deve essere limitata a quanto strettamente necessario. (…)
Ma, ovviamente, c'è bisogno di trasparenza, e questo l'abbiamo visto anche laddove queste tecnologie funzionano e i lavoratori, come dire, se ne appropriano, le fanno proprie. (…)
È dunque importante la questione della trasparenza.
(…)
Quali misure è possibile adottare per mitigare i rischi associati a questi sistemi e garantire che siano utilizzati in modo etico e responsabile? Come garantire la trasparenza nell'uso dei dati e degli algoritmi?
Maurizio Curtarelli: Noi abbiamo individuato dei fattori chiave per la prevenzione dei rischi legata all'utilizzo di tecnologie digitali in senso più ampio, anche se nello specifico stiamo parlando di tecnologie per la gestione algoritmica dei lavoratori.
In primo luogo, è fondamentale adottare un approccio antropocentrico sia nel disegnare queste tecnologie, ma anche nell'implementarle nel luogo di lavoro. Un approccio antropocentrico in cui i lavoratori e i manager sono sempre al comando della trasformazione digitale e non sono, diciamo, degli oggetti di questa trasformazione in cui le tecnologie digitali, in questo caso le tecnologie per la gestione algoritmica, (…) sostituiscono il controllo e le decisioni umane.
Questo principio è ripreso anche dalla recente legislazione europea sull'intelligenza artificiale in cui, appunto, si dice che le tecnologie di gestione algoritmica non debbano prendere decisioni in maniera automatica: le decisioni devono essere umane. Quindi sulla base delle informazioni raccolte sono poi gli umani a dover decidere.
È importante adottare un approccio olistico (…). E la valutazione dei rischi deve ovviamente considerare l'utilizzo delle tecnologie digitali e anche come queste impattano sulla organizzazione del lavoro con attenzione agli impatti sulla salute mentale.
Noi parliamo sempre di valutazione dei rischi e si fa molta attenzione ai rischi fisici, mentre invece i rischi psicosociali, nell'utilizzo soprattutto delle tecnologie digitali, non vengono sempre considerati.
E l'elemento che noi consideriamo cruciale, come abbiamo anche potuto vedere da casi di studio che abbiamo analizzato sull'utilizzo della gestione algoritmica dei lavoratori, è la consultazione e la partecipazione dei lavoratori allo sviluppo, all'implementazione e utilizzo delle tecnologie e dei sistemi digitali per la gestione algoritmica.
Partecipazione, ma anche informazione. (…) Ai lavoratori viene spiegato in maniera trasparente a cosa servono queste tecnologie, come possono essere utili ai lavoratori, come funzionano. Ecco, trasparenza anche sul funzionamento.
(…)
La gestione con intelligenza artificiale e algoritmica non può aumentare le difficoltà nell’individuazione di eventuali responsabilità? Cosa succede quando i poteri datoriali vengono esercitati mediante il ricorso a processi decisionali automatizzati? Chi è responsabile in caso di decisioni errate?
Maurizio Curtarelli: Beh, certamente in ultima analisi rimane responsabile, comunque, il datore di lavoro che ha l'obbligo di eseguire una valutazione del rischio e di coprire nella valutazione tutti quei rischi che sono connessi all'utilizzo della macchina.
In teoria queste decisioni automatiche non dovrebbero portare a conseguenze drammatiche, per così dire, però è una possibilità e certamente la valutazione del rischio serve per capire esattamente quali sono i rischi connessi con le tecnologie.
Va detto che le tecnologie devono essere immesse sul mercato soltanto se hanno superato tutti i controlli, le certificazioni di sicurezza, e così via. Però è vero che a seconda di come vengano poi utilizzate nell'ambito del processo lavorativo e per l'organizzazione del lavoro possono avere delle interazioni particolari.
Prima un riferimento che ho fatto è stato alla valutazione olistica del rischio.
Ecco, la valutazione olistica è proprio questo, capire non soltanto la tecnologia, qual è il rischio associato alla tecnologia, ma anche capire il rischio associato alla tecnologia nella sua interazione con l'organizzazione del lavoro, quindi nell'assegnare, non so, dei carichi di lavoro, dei compiti specifici e così via. Ecco, quel tipo di valutazione olistica che permette anche di sensibilizzare tutti gli attori coinvolti nel processo di introduzione, di utilizzo di queste tecnologie, permette di individuare e condividere le responsabilità legate all'utilizzo delle tecnologie di gestione algoritmica.
(…)
Cosa si può fare, infine, per migliorare ulteriormente, anche a livello normativo, la situazione e garantire che questi sistemi siano utilizzati a vantaggio sia delle aziende che dei lavoratori?
Maurizio Curtarelli: Negli ultimi anni abbiamo assistito all'introduzione in diversi Paesi e anche a livello europeo di importanti strumenti legislativi. Per esempio, in Spagna, in riferimento al lavoro su piattaforma, è stato introdotto un principio che è stato poi ripreso nella legislazione europea e che è quello della trasparenza algoritmica.
Le piattaforme digitali in Spagna hanno l'obbligo di aprire l'algoritmo - non più una scatola nera di cui non si sa nulla riguardo il funzionamento. Le piattaforme in Spagna hanno l'obbligo di aprire, di comunicare i codici, gli algoritmi, il funzionamento del sistema algoritmico per comprendere come vengono effettuate certe scelte, come viene effettuata l'allocazione delle task lavorative, eccetera.
Questo principio è stato ripreso nella direttiva europea sul lavoro su piattaforma che appunto sancisce l'obbligo della trasparenza algoritmica. E questo è un importante passo. Sebbene, va detto, che c'è un problema anche lì di conoscenza. Nel senso che una volta che appunto l'algoritmo viene reso trasparente e noto, c'è bisogno di organizzazioni dei lavoratori con delle competenze che permettano di poter leggere l'algoritmo e capire esattamente come funziona. Però è un passo avanti notevole.
Abbiamo un AI act, la direttiva su intelligenza artificiale, la legislazione su intelligenza artificiale, lanciata da non moltissimo tempo, che è un altro importante passo avanti che permette di regolamentare alcuni aspetti dell'utilizzo non produttivo o dannoso dell'intelligenza artificiale in alcuni ambiti. E per la gestione algoritmica si prevede che non possa essere utilizzata per prendere decisioni in maniera automatica che abbiano un impatto importante sul lavoratore. Per esempio, licenziare il lavoratore in maniera automatica semplicemente analizzando dei pattern di comportamento e quindi, alla fine, mandare via quel lavoratore che non risponde a determinati requisiti.
(…)
Che cosa si può fare in più?
Naturalmente l'esistenza della legislazione e degli obblighi non necessariamente, in maniera automatica, si traduce nella soluzione del problema.
È molto importante continuare con la sensibilizzazione. È molto importante mantenere alto il livello anche della discussione, delle discussioni sull'argomento per far sì che tutte le parti sappiano quali sono i rischi e quali sono le opportunità. E che quindi tutti beneficino di questo grande progresso a cui stiamo assistendo.
(…)
Articolo e intervista a cura di Tiziano Menduto
Link alle precedenti interviste sul primo e secondo ambito prioritario della campagna europea:
- Quali sono i vantaggi e svantaggi dell'automazione dei compiti lavorativi?
- Campagna europea: quali sono i rischi connessi al lavoro su piattaforma?
- Campagna europea: quali sono i rischi e le sfide nel lavoro da remoto e ibrido?
Il link al sito della campagna “Lavoro sano e sicuro nell’era digitale”.

I contenuti presenti sul sito PuntoSicuro non possono essere utilizzati al fine di addestrare sistemi di intelligenza artificiale.