Per utilizzare questa funzionalità di condivisione sui social network è necessario accettare i cookie della categoria 'Marketing'.
AI Act e sicurezza: impatti sui sistemi basati sull’intelligenza artificiale
Bilbao, 4 Mag – Da diversi anni si sottolinea, anche nei nostri articoli, come la digitalizzazione e lo sviluppo di nuove tecnologie, come l’ intelligenza artificiale, abbiano trasformato rapidamente il mondo del lavoro. Spesso aggiungendo che sono richieste soluzioni nuove e aggiornate in materia di sicurezza e salute sul lavoro (SSL).
Ma le “nuove soluzioni” in materia normativa e di regolamentazione di queste tecnologie come possono incidere su queste tecnologie? E quali sono, ad esempio, le opportunità e le sfide che l'adozione del Regolamento UE sull'intelligenza artificiale (AI Act) potrebbe comportare per lo sviluppo e l'uso dei sistemi di sicurezza e salute basati sull'intelligenza artificiale, sia esistenti che futuri?
Un documento (discussion paper) prodotto nell’ambito del progetto dell’EU-OSHA “Future of Work”, un progetto per fornire informazioni sui potenziali effetti della digitalizzazione sulla SSL, esplora proprio questo tema offrendo una prospettiva su come questa normativa, insieme al suo “risk-based approach” (approccio basato sul rischio), possa impattare sulle attuali e potenziali future applicazioni delle nuove tecnologie.
Ci soffermiamo sul documento, commissionato dall’Agenzia europea per la sicurezza e la salute sul lavoro ( EU-OSHA), dal titolo “Enhancing worker health and safety through ai-driven systems: implications of the artificial intelligence act” (Migliorare la salute e sicurezza dei lavoratori attraverso sistemi basati sull’IA: implicazioni del regolamento sull’intelligenza artificiale) e a cura di Stefania Marassi e John Bolte (The Hague University of Applied Science - THUAS, Netherlands).
Nell’articolo di presentazione del nuovo discussion paper ci soffermiamo sui seguenti argomenti:
- Regolamento sull'intelligenza artificiale: categorie di rischio
- I sistemi basati sull’intelligenza artificiale: opportunità e rischi
- I sistemi basati sull’intelligenza artificiale: nuovo documento Eu-Osha
Regolamento sull'intelligenza artificiale: categorie di rischio
Ricordiamo che con AI Act facciamo riferimento al Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio del 13 giugno 2024 che stabilisce regole armonizzate sull'intelligenza artificiale e modifica i regolamenti (CE) n, 300/2008, (UE) n, 167/2013, (UE) n, 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e le direttive 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828 (regolamento sull'intelligenza artificiale).
Il documento sottolinea che l'adozione dell’AI Act segna una pietra miliare significativa nella regolamentazione dei sistemi e delle pratiche di intelligenza artificiale (IA/AI) all'interno dell'Unione Europea (UE), stabilendo regole armonizzate per lo sviluppo, la commercializzazione, l'implementazione e l'uso dei sistemi di IA.
Con questa normativa, il legislatore europeo mira a trovare un equilibrio tra le opportunità e i benefici dell'innovazione tecnologica basata sull'IA e la necessità di sviluppare un'intelligenza artificiale incentrata sull'uomo, etica e affidabile, in cui la sicurezza, la salute e i valori e i diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell'Unione europea siano fortemente tutelati, compreso il diritto alla dignità umana, all'integrità fisica e mentale, protezione dei dati e condizioni di lavoro eque e giuste. E per raggiungere questo obiettivo, l’AI Act adotta un “approccio basato sul rischio” per classificare i sistemi e le pratiche di IA in base al rischio che presentano.
In particolare, si segnala che il Regolamento sull’IA identifica quattro categorie di rischio: rischio inaccettabile, rischio elevato, rischio di trasparenza e rischio minimo o nullo. E Sulla base di questa classificazione:
- alcuni sistemi di IA sono vietati perché i loro rischi sono ritenuti inaccettabili (ad esempio alcuni sistemi di IA che effettuano il social scoring)
- alcuni sistemi di intelligenza artificiale sono classificati come ad alto rischio, soggetti a specifici requisiti obbligatori (ad es. un sistema di gestione del rischio) e obblighi per i vari operatori nella catena del valore dell'IA, inclusi i fornitori di IA (sviluppatori di tecnologia) e gli implementatori di IA (come i datori di lavoro in contesti lavorativi)
- per quattro tipi di sistemi di IA (ad esempio le tecnologie di riconoscimento delle emozioni basate sull'IA che non sono vietate ma sono considerate sistemi ad alto rischio, i chatbot e l'IA generativa), vengono imposti specifici obblighi di trasparenza e informazione ai fornitori e/o agli utilizzatori di IA, compreso l'obbligo di informare le persone esposte all'uso di tali sistemi
- i sistemi di IA nella categoria a rischio minimo o nullo (ad es. i filtri antispam) non sono regolamentati, ma i fornitori e gli sviluppatori di IA possono redigere codici di condotta.
I sistemi basati sull’intelligenza artificiale: opportunità e rischi
Il documento si pone, dunque, il quesito di come questo sviluppo legislativo possa influenzare lo sviluppo e l’uso attuali e futuri dei sistemi basati sull’ intelligenza artificiale volti a salvaguardare e migliorare la sicurezza e la salute sul lavoro (sistemi OSH basati sull’IA), in particolare i sistemi digitali intelligenti per la sicurezza e la salute sul lavoro quali dispositivi indossabili, robot intelligenti, esoscheletri e robot collaborativi (cobot).
Senza dimenticare che la ricerca su queste tecnologie sta avanzando rapidamente, con studi che esplorano nuovi tipi di dispositivi che potrebbero entrare nel mercato per applicazioni sul posto di lavoro o che sono già disponibili in commercio e che si stanno diffondendo nelle aziende.
Ad esempio, i dati della quarta Indagine europea sulle imprese sui rischi nuovi ed emergenti ( ESENER 4) mostrano che il 13% delle aziende intervistate ha dichiarato di utilizzare dispositivi indossabili, in aumento rispetto al solo 4,8% del 2019.
Queste tecnologie offrono sì l'opportunità di migliorare la sicurezza e la salute sul lavoro, ma possono anche comportare – come ricordato durante la campagna europea “ Lavoro sano e sicuro nell’era digitale” - rischi non solo per la salute e la sicurezza dei lavoratori, ma anche per la tutela di altri diritti fondamentali, compresi quelli relativi all'integrità personale e alla protezione dei dati.
Vari studi, infatti, hanno messo in luce questa duplice natura.
Ad esempio, i dispositivi indossabili sono in grado di identificare – e talvolta prevedere – i rischi per la sicurezza e la salute sul lavoro in tempo reale, fornire avvisi tempestivi ai lavoratori e attivare segnalazioni ai responsabili del cantiere quando vengono superate le soglie di sicurezza. I robot intelligenti, i cobot e le tecnologie assistive come gli esoscheletri possono sostituire o supportare i lavoratori in lavori e mansioni pericolosi e fisicamente impegnativi.
Allo stesso tempo – continua il documento - queste tecnologie possono comportare rischi per la sicurezza fisica e la salute (ad esempio lesioni dovute alle interazioni uomo-robot o agli esoscheletri) e rischi psicosociali (ad esempio stress e ansia) dovuti a fattori quali il monitoraggio costante e la riduzione o la perdita di autonomia.
I sistemi basati sull’intelligenza artificiale: nuovo documento Eu-Osha
Proprio per esplorare le opportunità e le sfide che l’AI Act pone per i sistemi SSL basati sull’IA, il discussion paper è suddiviso in quattro diverse parti.
Ad esempio, la seconda sezione esamina una pratica vietata dall’AI Act: il riconoscimento delle emozioni basato sull’IA. Fornisce esempi pratici di tecnologie soggette a tale divieto, di sistemi IA non classificabili come sistemi di riconoscimento delle emozioni e delle eventuali eccezioni per motivi medici o di sicurezza.
La terza sezione fornisce poi informazioni su come la categoria ad alto rischio dell'AI Act si applichi ai sistemi di SSL basati sull'intelligenza artificiale, mentre la sezione 4 esamina l'interazione tra l'AI Act e la legislazione UE esistente, come la Direttiva quadro 89/391/CEE e il Regolamento generale sulla protezione dei dati (GDPR).
Infine, la Sezione 5 identifica le lacune e i punti chiave sull'applicazione pratica dell'AI Act ai sistemi di sicurezza e salute sul lavoro basati sull'IA e offre spunti per le parti interessate, inclusi datori di lavoro, lavoratori e loro rappresentanti.
Rimandiamo, in conclusione, alla lettura integrale del documento “Enhancing worker health and safety through ai-driven systems: implications of the artificial intelligence act” e ne proponiamo un breve sommario:
1 Introduction
2 Example of a prohibited AI practice: AI emotion recognition technologies in the workplace
2.1 AI systems not classified as AI emotion recognition systems under the AI Act and therefore not prohibited
2.2 The ‘medical or safety reasons’ exception: when AI emotion recognition in the workplace is permitted
3 High-risk AI systems in the AI Act and AI-driven OSH systems
3.1 AI systems that are intended to be used as safety components of a product or are themselves products
3.2 Stand-alone high-risk AI systems in the workplace
4 The interplay between the AI Act, EU OSH legislation and the GDPR
4.1 The AI Act as complementary legislation
4.2 Employers’ obligations under the AI Act and information (and consultation) rights
5 Key takeaways on the practical application of the AI Act to AI-driven OSH systems
Scientific research in organisational, OSH and legal fields
EU policy
Employers, workers (and their representatives), and OSH professionals
6 Concluding remarks
7 References
Annex I. Text of selected relevant articles and recitals (40) of the AI Act
Tiziano Menduto
Scarica il documento da cui è tratto l'articolo:
Scarica la normativa di riferimento:
I contenuti presenti sul sito PuntoSicuro non possono essere utilizzati al fine di addestrare sistemi di intelligenza artificiale.
Per visualizzare questo banner informativo è necessario accettare i cookie della categoria 'Marketing'