Per utilizzare questa funzionalità di condivisione sui social network è necessario accettare i cookie della categoria 'Marketing'.
Intelligenza artificiale e sicurezza: criticità e aspetti rilevanti
Urbino, 14 Ott – L’intelligenza artificiale, come più volte ricordato anche nella campagna europea “ Lavoro sano e sicuro nell’era digitale”, che vede il nostro giornale impegnato nel ruolo di media partner, sta avendo e avrà sempre più un notevole impatto sul mondo del lavoro e anche, come segnalato nei nostri articoli, in materia di salute e sicurezza.
Molte riflessioni, anche con riferimento ai diversi saggi in materia pubblicati nel numero 2/2024 della rivista “Diritto della sicurezza sul lavoro”, pubblicazione online dell'Osservatorio Olympus dell' Università degli Studi di Urbino, si sono soffermati sulle nuove tecnologie e sull’intelligenza artificiale con riferimento al destino che accomuna i due temi:
- “le nuove tecnologie, con le loro virtù compensative dei limiti della tutela della sicurezza (sul lavoro) e insieme i pericoli che discendono dalla loro diffusa applicazione;
- l’intelligenza artificiale con lo slancio rinnovatore che insistentemente la invoca e insieme gli spettri di rimpiazzo (all’essere umano) che dietro a questa novità si muovono”.
A ricordarlo, indicando che è ormai un convincimento comune il fatto che “siamo di fronte ad una sempre maggiore smaterializzazione e decostruzione della nozione di persona e, dunque, ad una modifica poliedrica dei suoi rapporti con il mondo esterno”, è un nuovo contributo pubblicato sul numero 1/2025 della rivista dell'Osservatorio Olympus.
Il saggio “Obiettivi, strumenti e metodi dell’intelligenza artificiale nella tutela della salute e della sicurezza dei lavoratori” - a cura di Michele Squeglia (professore Associato di diritto del lavoro, della previdenza sociale e della sicurezza presso il Dipartimento di diritto privato e storia del diritto dell’Università degli Studi di Milano; consulente della Commissione Permanente di Inchiesta sulle condizioni di lavoro sullo sfruttamento e sulla tutela della salute nel lavoro pubblico e privato in Italia presso la Camera dei Deputati) – indica che nella mutata prospettiva connessa alla diffusione delle nuove tecnologie e dell’ intelligenza artificiale “il diritto della sicurezza del lavoro ha il compito di costruire uno quadro normativo coerente con la novità dei tempi, dove i valori e principi inviolabili della dignità, dell’eguaglianza e della salute (sanciti dagli artt. 2 e 3 e 32 Cost.) non possono non tracciare il perimetro di una riflessione rispetto a cosa il diritto può fare, cosa il diritto deve fare e cosa, invece, deve astenersi dal fare, pur governando i rischi congeniti insiti nell’intelligenza artificiale”.
Segnaliamo che il contributo riprende ed approfondisce le riflessioni esposte al Convegno “Diritti fondamentali e nuove tecnologie” (Milano, 31 gennaio 2024) e alla Tavola rotonda “Nuove tecnologie e organizzazione del lavoro nella manutenzione ferroviaria: opportunità e limiti” (Roma, 12 settembre 2024).
Nel presentare brevemente il saggio, l’articolo affronta i seguenti temi:
- L’intelligenza artificiale e la sicurezza dei lavoratori: il saggio
- L’intelligenza artificiale e la sicurezza dei lavoratori: le difficoltà
- L’intelligenza artificiale e la sicurezza dei lavoratori: i punti chiave
L’intelligenza artificiale e la sicurezza dei lavoratori: il saggio
Come indicato nell’abstract del saggio, partendo dall’assunto che la “trasformazione digitale è in grado di determinare conseguenze mai sperimentate in precedenza sul sistema sociale, economico e del lavoro”, l’autore ricorda che il legislatore dell’Unione europea, avvalendosi di una “traccia di stile regolativo” già prospettata dal Regolamento GDPR, “ha emanato il Reg. UE 2024/1689, meglio noto come Artificial Intelligence Act, con la finalità di disciplinare l’uso e lo sviluppo dei sistemi basati sull’intelligenza artificiale negli Stati membri”.
Il saggio pubblicato nella rivista si articola in due parti:
- la prima parte si propone di “evidenziare quanto la trasformazione digitale possa incidere favorevolmente sulla prevenzione degli infortuni e delle malattie professionali ove fosse impiegata dalle imprese con consapevolezza e responsabilizzazione e nel rispetto della privacy e della dignità del lavoratore”;
- la seconda parte “si concentra sull’adeguatezza di tale recente regolamentazione unionale di esaurire la normatività di cui si ha necessità nell’ambito della trasformazione indotta (o coadiuvata) dalla intelligenza artificiale sulla tutela della salute e della sicurezza”.
Si indica poi che il comune denominatore delle due sezioni si rinviene nella “verifica della compatibilità con l’attuale assetto della disciplina domestica e con il bagaglio valoriale dei principi costituzionali”.
L’intelligenza artificiale e la sicurezza dei lavoratori: le difficoltà
Nell’introduzione del saggio si indica che il diritto della sicurezza del lavoro, “sgombrato il campo dalla fascinazione per la tecnologia e per la sua capacità di autoregolarsi, non può esimersi dall’interrogarsi sulla tutela e sulla protezione dei dati personali del prestatore d’opere dalla manipolazione o dalle decisioni di una macchina, che potrebbe essere chiamata anche a dirigerne le mansioni e valutarne la produttività, dal momento che tale tutela si presenta come l’irrinunciabile ed ultimo presidio per salvaguardarne la dignità. Tuttavia non si tratta di un “compito agevole” perché una normazione relativa alle nuove tecnologie “comporta almeno due tipologie di problemi”:
- il primo “è quello di una sua rapida obsolescenza e, forse (anche) della sua inservibilità, dal momento che potrebbe produrre una regolazione inefficace, perché vetusta, ma anche, presumibilmente, di ostacolo allo sviluppo della tutela della salute e della sicurezza”. Infatti la grande velocità di continua evoluzione e progresso dell’intelligenza artificiale e “la complessità delle questioni che essa comporta rischiano di far diventare subito obsoleta qualsiasi normazione che non preveda meccanismi di adeguamento capaci di offrire una risposta pronta alle esigenze di intervento”;
- il secondo “attiene alla necessità di collegare gli effetti prevenzionistici dell’ intelligenza artificiale nell’ambito dei vari settori merceologici e di servizi, per poi distinguere all’interno di ciascuno di essi le varie fasi (predittive e valutative) di quella specifica attività”. Tanto più “un tipo di lavorazione è caratterizzato da modalità operative automatizzate, standardizzate e soprattutto ripetitive, tanto più pervasivi saranno gli effetti dell’intelligenza artificiale; tanto più si riscontreranno settori nei quali la creatività e la manodopera individuale è fortemente prevalente, tanto più modesti nella fase dell’esecuzione saranno gli effetti generati dalle nuove tecnologie”.
Il contributo pone l’attenzione sui sistemi basati sull’intelligenza artificiale impiegati ai fini dell’automazione di compiti tanto cognitivi quanto fisici sul luogo di lavoro. E lo spunto è offerto dalla lettura di alcune recenti ricerche elaborate dall’Agenzia Europea EU-OSHA e dalle norme contenute nel primo regolamento europeo sull’Artificial Intelligence Act, il cui obiettivo è ‘promuovere la diffusione di un’intelligenza artificiale (IA) antropocentrica e affidabile, garantendo nel contempo un livello elevato di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell’Unione europea, compresi la democrazia, lo Stato di diritto e la protezione dell’ambiente, contro gli effetti nocivi dei sistemi di IA nell’Unione, e promuovendo l’innovazione (…)’.
L’autore ricorda poi che il regolamento UE 2024/1689 qualifica all’art. 3 lo strumento di intelligenza artificiale come ‘(…) un sistema automatizzato progettato per funzionare con diversi livelli di autonomia e che può mostrare capacità di adattamento dopo l’installazione e che, per obiettivi espliciti o impliciti, deduce, dagli input che riceve, come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali’. E questa nozione, “che ha l’ambizione di essere resistente agli sviluppi futuri, provando a coprire tutte le forme di intelligenza artificiale”, pare tuttavia escludere, “seppur lasciando ampie maglie di interpretazione, sistemi software tradizionali ‘più elementari’ e quegli algoritmi di programmazione che non determinano un certo grado di capacità di adattamento e livello di autonomia”.
Comunque – continua il saggio – “a seconda degli scopi che si intendono perseguire, i sistemi di intelligenza artificiale possono costituire un efficace (e puntuale) ausilio per migliorare i dispositivi di protezione individuali, la gestione delle attrezzature di lavoro e dei macchinari complessi (specie nel trasporto su ferro) oppure possono rappresentare uno strumento per raccogliere dati e informazioni al fine di rendere il lavoro meno pericoloso e meno gravoso”. Se “entrambi questi impieghi presentano più di un profilo critico”, è indubbio che è la seconda applicazione “a suscitare più di una preoccupazione per lo studioso di diritto della sicurezza del lavoro”.
L’intelligenza artificiale e la sicurezza dei lavoratori: i punti chiave
Riprendiamo dal contributo della rivista qualche stralcio dall’ultimo capitolo intitolato “Qualche provvisoria conclusione”.
Si ribadisce che sono vari i benefici che i sistemi di intelligenza artificiale “possono generare alla tutela della salute e della sicurezza del lavoratore in un’ottica di prevenzione degli infortuni e delle malattie professionali”. E sicuramente la “predisposizione”, suggerita dall’Agenzia Europea EU-OSHA, di elaborare un ‘solido quadro etico’ che “definisca con precisione come i sistemi di intelligenza artificiale dovrebbero essere sviluppati, attuati e impiegati, nel rispetto delle disposizioni legislative esistenti, è una proposta condivisibile”. Ed è sulla stessa lunghezza d’onda anche il regolamento UE 2024/1689.
Tuttavia se l’obiettivo è quello di servirsi dell’intelligenza artificiale “al fine di consentire ai datori di lavoro e ai servizi di prevenzione e protezione di individuare e di pianificare gli interventi migliorativi da attuare e di individuare la loro scala di priorità”, sono due i punti chiave sui quali non si può prescindere:
- in primo luogo, “oltre alla diffusione – sia a livello nazionale che internazionale – di linee guida, buone prassi e indicazioni operative, occorre identificare uno standard minimo di riferimento per ciascun dispositivo di intelligenza artificiale che arrechi benefici alla tutela della salute e della sicurezza al fine di scongiurare la difformità di valutazione e l’impossibilità di comparazione dei risultati in ambito contrattuale. Ciò significa affrontare consapevolmente (anche) il pericolo di applicazione inappropriata o di interpretazione errata o deviata degli output o delle decisioni del sistema di intelligenza artificiale”;
- in secondo luogo, “occorre garantire, da un lato, la trasparenza dei sistemi IA – declinandola in tre differenti aspetti: tracciabilità, comunicazione e spiegabilità – e, dall’altro, la partecipazione attiva dei lavoratori alla progettazione, allo sviluppo e, finanche, alla valutazione di tali sistemi”.
Infatti “quando il lavoratore non ha informazioni o comprensione di quali dati l’algoritmo di intelligenza artificiale sta raccogliendo, come vengono utilizzati i dati e per quale scopo, ciò inevitabilmente conduce all’intensificazione del lavoro, allo stress lavoro-correlato e, dunque, finisce per comprometterne la salute fisica e organizzativa”.
Infine – conclude il Prof. Sgueglia – il dialogo deve essere incentrato “non esclusivamente sulla promozione dell’innovazione tecnologica, bensì anche sulla sensibilizzazione alla cultura del dato, servendosi della privacy come strumento a protezione del lavoratore e/o della lavoratrice e non come ostacolo alla ricerca e alla tutela della loro salute”.
Abbiamo bisogno, insomma. di una bussola, “non inevitabilmente normativa, che tenga conto della ricerca, dello sviluppo e della conoscenza empirica dell’utilizzo della tecnologia e non solo del momento della progettazione tecnologica”. Ed è evidente “quanto non sia più procrastinabile non solo agire al fine di cogliere le opportunità e i benefici che il progresso tecnologico offre, a partire dalla prevenzione e dal miglioramento delle condizioni di lavoro, ma anche di garantire un adeguato livello di consapevolezza e di relative tutele”.
Rimandiamo, in conclusione, alla lettura integrale del saggio e ne riportiamo il sommario:
- Introduzione
- Prove di conoscenza (e di coscienza) dei sistemi di intelligenza artificiale
- L’ingresso dell’intelligenza artificiale nella protezione della salute e della sicurezza dell’ambiente di lavoro
- Il nodo della tutela della riservatezza e della dignità del lavoratore
- Qualche provvisoria conclusione.
Tiziano Menduto
Scarica il documento da cui è tratto l'articolo e la normativa di riferimento:
I contenuti presenti sul sito PuntoSicuro non possono essere utilizzati al fine di addestrare sistemi di intelligenza artificiale.
Per visualizzare questo banner informativo è necessario accettare i cookie della categoria 'Marketing'
