Per utilizzare questa funzionalità di condivisione sui social network è necessario accettare i cookie della categoria 'Marketing'
Crea PDF

Sull’intelligenza artificiale, i poteri datoriali e la sicurezza sul lavoro

Sull’intelligenza artificiale, i poteri datoriali e la sicurezza sul lavoro

Un saggio propone uno sguardo oltre la siepe per parlare di intelligenza artificiale e sicurezza sul lavoro. Focus sulle implicazioni derivanti dall’esercizio del potere direttivo a mezzo algoritmico e l’emersione di nuovi rischi per la sicurezza.


Urbino, 12 Mar – Come più volte sottolineato nella campagna europeaLavoro sano e sicuro nell’era digitale”, promossa dall’Agenzia europea per la sicurezza e la salute sul lavoro ( EU-OSHA), la rivoluzione digitale sta portando ad un crescente ed inevitabile impiego dell’intelligenza artificiale anche nella gestione dei rapporti di lavoro. Ed infatti sempre più frequentemente “i poteri datoriali di organizzazione, decisione e controllo vengono esercitati mediante il ricorso a processi decisionali automatizzati basati sull’utilizzo di strumenti algoritmici”. E questo passaggio, in relazione alla “natura ambivalente delle tecnologie che si basano sull’intelligenza artificiale”, pone di fronte ad importanti quesiti, anche di “ordine giuridico e ontologico”.

 

A ricordarlo, soffermandosi su un tema importante connesso alle conseguenze dell’evoluzione tecnologica nel mondo del lavoro, è un saggio pubblicato sul numero 2/2024 di “Diritto della sicurezza sul lavoro”, rivista online dell'Osservatorio Olympus dell' Università degli Studi di Urbino, e a cura di Stefano Cairoli, professore associato di diritto del lavoro presso l’ Università degli Studi di Perugia.

 

In “Intelligenza artificiale e sicurezza sul lavoro: uno sguardo oltre la siepe” l’autore vuole indagare i rischi e le opportunità che sorgono dall’impiego dell’ intelligenza artificiale nella gestione dei rapporti di lavoro, con particolare attenzione all’ambito della tutela della salute e della sicurezza dei lavoratori.

 

L’analisi del fenomeno – come ricorda l’abstract del saggio – è condotta attraverso le maglie della disciplina lavoristica, con particolare riferimento, da un lato ai tipici poteri datoriali (direttivo, organizzativo e di controllo), e dall’altro all’onere di sicurezza cui è tenuto il datore di lavoro. Il saggio si sofferma anche sull’introduzione del Regolamento in materia di sviluppo e commercializzazione dell’intelligenza artificiale che pone interessanti questioni interpretative. Un focus è poi dedicato alla configurazione della responsabilità civile nel caso in cui un illecito sul posto di lavoro sia occorso in virtù dell’impiego dei sistemi dotati di intelligenza artificiale (AI), in virtù della moltiplicazione dei soggetti che partecipano al credito di sicurezza (datore di lavoro e produttore commerciale dell’algoritmo).

 

Nel presentare il contributo ci soffermiamo sui seguenti temi:



Pubblicità
Datore di Lavoro RSPP (Rischio Alto) - Aggiornamento 14 ore
Corso online di aggiornamento per Datori di Lavoro RSPP (DLSPP) nelle aziende a Rischio Alto

 

Intelligenza artificiale e sicurezza sul lavoro: poteri datoriali e algoritmi

L’autore presenta “le implicazioni derivanti dall’esercizio del potere direttivo a mezzo algoritmico e l’emersione di nuovi rischi per la sicurezza”.

 

A questo proposito si segnala, come indicato in premessa, che “sempre maggiore è la tendenza alla sostituzione dei ‘tradizionali’ poteri datoriali di decisione e controllo con processi decisionali affidati all’automazione algoritmica”. E, in questo senso, l’impiego di strumenti algoritmici sembra orientato “ad estendere a dismisura i poteri datoriali, determinando importanti implicazioni non solo sul versante del trattamento dei dati personali del lavoratore e su quello del monitoraggio e del giudizio sugli stessi, ma anche su quello della garanzia dell’integrità psico-fisica dei lavoratori, che si fonda anche e soprattutto su un efficace esercizio del potere di vigilanza e di controllo”.

 

Viene sottolineato il problema della c.d. “opacità algoritmica”, ossia della “scarsa trasparenza intrinseca che contraddistingue i processi decisionali automatizzati, potendo accentuare lo stato di soggezione del lavoratore ovvero creare ulteriori e inediti squilibri nel rapporto di lavoro o, ancora, avallare pratiche discriminatorie”. Ed infatti la Commissione dell’Unione europea (UE) in una Comunicazione del 5 marzo 2020 (Un’Unione dell’uguaglianza: la strategia per la parità di genere 2020-2025) ha evidenziato come gli algoritmi, “laddove non siano sufficientemente trasparenti, rischino di riprodurre, amplificare o contribuire a far sorgere pregiudizi, di cui i programmatori possono non essere a conoscenza o che sono il risultato di una specifica selezione di dati”.

Sempre in un’ottica di contrasto della opacità algoritmica la Direttiva sul lavoro mediante piattaforme digitali adottata dal Parlamento europeo il 24 aprile 2024 fornisce “alcuni interessanti strumenti volti a favorire la trasparenza informativa delle decisioni assunte con procedure automatizzate gestite da algoritmi attraverso il monitoraggio ed il riesame umano delle decisioni stesse”.

 

In particolare, si ricorda che l’articolo 6 prevede che le “ piattaforme digitali debbano fornire ai lavoratori informazioni in merito ai sistemi di monitoraggio utilizzati e ai sistemi decisionali, prevedendo, in particolare, che essi abbiano diritto di ottenere le informazioni relative ai principali parametri utilizzati dai sistemi decisionali automatizzati, nonché ai motivi sottesi alle decisioni da essi assunte, richiedendo espressamente che le informazioni siano comunicate «in forma concisa, trasparente, intellegibile e facilmente accessibile”. E l’articolo 8 “contempla il diritto del lavoratore a ottenere una spiegazione per qualsiasi decisione presa o sostenuta dal sistema decisionale automatizzato, con la possibilità di rivolgersi a tal proposito a una persona di contatto, designata dalla piattaforma per discutere e chiarire i fatti, le circostanze e i motivi della decisione”.

 

Intelligenza artificiale e sicurezza sul lavoro: valutazione dei rischi e probabilità

Il Prof. Cairoli ricorda poi che ai sensi della vigente normativa in materia di salute e sicurezza sul lavoro ( Decreto legislativo 9 aprile 2008, n. 81) il datore di lavoro è “onerato della valutazione di tutti i rischi e della conseguente adozione delle relative misure di prevenzione e protezione, volte ad eliminarli alla fonte o, ove ciò non sia possibile, a ridurli al minimo possibile”. E l’eliminazione o la riduzione al minimo dei rischi va garantita in relazione alle «conoscenze acquisite in base al progresso tecnico».

 

Inoltre la valutazione dei rischi “deve essere immediatamente rielaborata, non solo in occasione di significative modifiche del processo produttivo o della organizzazione del lavoro, ma anche «in relazione al grado di evoluzione della tecnica, della prevenzione o della protezione» (art. 29, comma 3, del d.lgs. n. 81/2008)”. In questo senso “emerge chiaramente come la valutazione del rischio e la conseguente adozione delle misure di sicurezza debbono essere costantemente guidate e definite dal grado di evoluzione tecnico-scientifica di tempo in tempo raggiunto”.

 

In questo senso l’avvento dei sistemi di intelligenza artificiale deve “innervare l’adempimento dell’obbligo prevenzionistico sotto un duplice profilo”.

Ad esempio “come possibile fattore di rischio per la salute fisica e mentale dei lavoratori (anche sotto forma di rischi da stress lavoro correlato o rischi di natura psico sociale), cui porre rimedio”. Ma senza trascurare come tali sistemi possano “integrare misure di sicurezza idonee per migliorare il livello di tutela e che, come tali, possano divenire immediatamente obbligatorie in base ai principi di massima sicurezza tecnologica sopra evocati”.

 

Se però per rischio - ai sensi dell’art. 2, comma 1, lett. s), del d.lgs. n. 81/2008 - si intende la «probabilità di raggiungimento del livello potenziale di danno nelle condizioni di impiego o di esposizione ad un determinato fattore o agente oppure alla loro combinazione», il grado di probabilità in questione “potrebbe mancare (o non essere calcolabile) nel caso di utilizzo di algoritmi non deterministici o auto apprendenti”, e ciò rende la valutazione del rischio “pressoché impossibile, se non in termini generali proprio, proprio per l’imprevedibilità che caratterizza il risultato”.

 

Rimandiamo, in conclusione alla lettura integrale del breve saggio che si sofferma su molti altri aspetti interessanti:

  • I.A. impiegate nella gestione dell’impresa e dei rapporti di lavoro: la definizione normativa e d.lgs. n. 152/1997;
  • emersione di nuovi profili di responsabilità e nuove forme di esercizio del potere organizzativo; nuove modalità di esercizio del potere di controllo;
  • impiego degli algoritmi dotati di intelligenza artificiale nel campo della sicurezza sul lavoro. Chi è responsabile in caso di illecito?
  • profili di compatibilità e aderenza degli algoritmi dotati di intelligenza artificiale agli standard di sicurezza sul lavoro.

 

 

Tiziano Menduto

 

 

Scarica il documento da cui è tratto l'articolo:

Università di Urbino Carlo Bo, Osservatorio Olympus, Diritto della sicurezza sul lavoro, “Intelligenza artificiale e sicurezza sul lavoro: uno sguardo oltre la siepe”, a cura di Stefano Cairoli (professore associato di diritto del lavoro presso l’Università degli Studi di Perugia), Diritto della Sicurezza sul Lavoro (DSL) n. 2/2024.

 

 



I contenuti presenti sul sito PuntoSicuro non possono essere utilizzati al fine di addestrare sistemi di intelligenza artificiale.

Per visualizzare questo banner informativo è necessario accettare i cookie della categoria 'Marketing'

Pubblica un commento

Ad oggi, nessun commento è ancora stato inserito.

Pubblica un commento

Banca Dati di PuntoSicuro


Altri articoli sullo stesso argomento:


Forum di PuntoSicuro Entra

FORUM di PuntoSicuro

Quesiti o discussioni? Proponili nel FORUM!