L’Intelligenza Artificiale sul luogo di lavoro
Pubblichiamo un estratto del documento di Eu-Osha “L’SSL e il futuro del lavoro: vantaggi e rischi degli strumenti di intelligenza artificiale negli ambienti di lavoro”.
L’IA sul luogo di lavoro
Nonostante le significative opportunità di progresso e di crescita della produttività, esistono anche importanti questioni relative alla salute e alla sicurezza sul lavoro (SSL) che emergono quando si integrano sistemi di IA nei luoghi di lavoro. È stato già dimostrato che lo stress, la discriminazione, l’aumento della precarietà, i disturbi muscoloscheletrici e le possibilità di intensificazione del lavoro e perdita del posto di lavoro comportano rischi psicosociali, compresa la violenza fisica nei luoghi di lavoro digitalizzati (Moore, 2018a). Questi rischi si accentuano quando gli strumenti tecnologici già esistenti vengono potenziati dall’IA o quando quest’ultima viene introdotta ex novo per la gestione e la progettazione del luogo di lavoro. In effetti, l’ intelligenza artificiale ingigantisce i rischi della SSL nei luoghi di lavoro digitalizzati, poiché consente un monitoraggio e un controllo maggiori che possono condurre a forme di microgestione, una delle principali cause di stress e ansia (Moore, 2018a). L’IA rafforza la necessità di dare maggiore credibilità e una potenziale autorità a quelle che Agrawal e colleghi (2018) chiamano «macchine predittive», sistemi robotici e processi algoritmici sul luogo di lavoro. Vale tuttavia la pena sottolineare che non è la tecnologia di per sé che crea benefici o rischi per la SSL. È piuttosto l’applicazione delle tecnologie che crea condizioni negative o positive.
Cobot nelle fabbriche e nei magazzini
È facile immaginare la scena: un paesaggio industriale nelle cui fabbriche si muovono in continuazione enormi bracci robotici arancioni in vasti magazzini per costruire parti di automobili e assemblare auto dove un tempo si trovavano i nastri trasportatori con accanto gli esseri umani. In molti casi, i robot hanno sostituito direttamente i lavoratori nella catena di montaggio nelle fabbriche e talvolta l’IA viene confusa con l’automazione. L’automazione nella sua accezione vera e propria implica, per esempio, la sostituzione esplicita di un braccio umano con uno robotico. La relazione dell’EU-OSHA Prospettive in merito ai rischi nuovi ed emergenti in materia di salute e sicurezza sul lavoro correlati alla digitalizzazione nel periodo fino al 2025 (Foresight on new and emerging occupational safety and health risks associated with digitalisation by 2025, EU-OSHA, 2018, pag. 89) indica che l’impiego di robot consente di sostituire le persone in lavori fisici pericolosi e in ambienti con rischi chimici ed ergonomici, riducendo così i rischi di SSL per i lavoratori.
I lavori manuali, meno qualificati sono stati storicamente quelli maggiormente a rischio e sono ancora ad alto rischio di automazione. Oggi, l’automazione può essere potenziata con un comportamento o «pensiero» autonomo della macchina. In questo modo, la dimensione dell’intelligenza artificiale nell’automazione rispecchia i casi in cui il cervello dei lavoratori, al pari dei loro arti, potrebbe non essere più necessario. Come indicato in un documento di riflessione EU-OSHA sul futuro del lavoro riguardante i robot e il lavoro, se inizialmente i robot sono stati costruiti per svolgere compiti semplici, oggi sono sempre più potenziati con capacità di intelligenza artificiale e vengono «costruiti per pensare, usando l’IA» (Kaivo-oja, 2015).
Attualmente nelle fabbriche e nei magazzini vengono integrati i cobot, che lavorano al fianco degli esseri umani in modo collaborativo. Essi offrono assistenza in una gamma crescente di compiti, piuttosto che automatizzare necessariamente interi processi lavorativi. Amazon ha impiegato 100 000 cobot potenziati con IA, riducendo il tempo impiegato per formare i lavoratori a meno di 2 giorni. Airbus e Nissan utilizzano i cobot per velocizzare la produzione e aumentare l’efficienza Come afferma una recente relazione dell’Organizzazione olandese per la ricerca scientifica applicata (TNO), esistono tre tipi di rischi SSL nelle interazioni uomo-cobot-ambiente (TNO, 2018, pagg. 18-19):
1. rischi di collisione robot-uomo, quando l’apprendimento automatico può portare a comportamenti imprevedibili dei robot;
2. rischi per la sicurezza, quando i collegamenti Internet dei robot possono minare l’integrità della programmazione del software, con conseguente aumento di vulnerabilità in termini di sicurezza;
3. rischi ambientali, quando il deterioramento di sensori e azioni umane impreviste in ambienti non strutturati possono portare a rischi per l’ambiente.
Il riconoscimento vocale e di modelli e la visione industriale possibili grazie all’IA consentono adesso di sostituire non solo i lavori non qualificati, ma anche una serie di lavori non di routine e non ripetitivi attraverso cobot e altre applicazioni e strumenti. In quest’ottica, l’automazione potenziata dall’IA permette di svolgere molti altri aspetti del lavoro tramite computer e altre macchine (Frey e Osborne, 2013). Un esempio di come gli strumenti potenziati dall’IA possano tutelare la SSL sul luogo di lavoro riguarda un’azienda chimica che produce componenti ottici per macchine. I minuscoli chip prodotti devono essere scansionati alla ricerca di eventuali errori. Prima, il lavoro di una persona consisteva nel rilevare questi errori con i propri occhi, stando seduto, immobile, davanti a immagini continue di chip di continuo per diverse ore. Adesso, l’IA ha sostituito completamente questo compito. I rischi SSL, che ora sono stati evidentemente eliminati, comprendono disturbi muscoloscheletrici, affaticamento degli occhi e danni alla vista.
I cobot possono ridurre i rischi SSL, in quanto consentono ai sistemi di IA di svolgere altri tipi di compiti comuni e di routine nelle fabbriche, che storicamente generano stress, sovraffaticamento, problemi muscoloscheletrici e persino noia dovuta alla ripetitività del lavoro. Tuttavia, i robot potenziati dall’IA nelle fabbriche e nei magazzini possono creare stress e una serie di gravi problemi se non vengono integrati in modo appropriato. In effetti, un sindacalista del Regno Unito ha dichiarato che la digitalizzazione, l’automazione e la gestione algoritmica quando «utilizzate in combinazione... sono tossiche e progettate per privare milioni di persone dei diritti fondamentali». Tra i potenziali problemi di SSL possono emergere anche fattori di rischio psicosociale se le persone sono spinte a lavorare al ritmo di un cobot (piuttosto che far lavorare il cobot al ritmo di un essere umano) e collisioni tra cobot e persone. Un altro caso di interazione uomo-macchina correlato all’impiego di cobot che crea nuove condizioni di lavoro e rischi in materia di SSL si verifica quando una persona è incaricata di «occuparsi» di una macchina e riceve notifiche e aggiornamenti di stato sulle macchine su un dispositivo personale come uno smartphone o un computer portatile di casa. Ciò può portare a un rischio di superlavoro, per cui i lavoratori si sentono obbligati a prendere nota delle notifiche fuori dall’orario lavorativo, con ripercussioni sull’equilibrio tra lavoro e vita privata.
Un esperto di intelligenza artificiale e lavoro ha illustrato gli sviluppi riguardanti l’Internet delle cose nei luoghi di lavoro, in cui i sistemi connessi machine-to-machine (M2M) operano parallelamente al lavoro svolto dall’uomo nelle fabbriche e nei magazzini. Problemi di inserimento dati, inesattezze e guasti nei sistemi machine-to-machine creano rischi significativi di SSL e dubbi sulla responsabilità. Infatti, i sensori, il software e la connettività possono essere difettosi e instabili, e tutte queste vulnerabilità rendono difficile determinare chi sia legalmente responsabile di eventuali danni. Di chi è la colpa se un cobot si scontra con un lavoratore: del cobot, del lavoratore, della società che ha originariamente prodotto il cobot o della società che impiega il lavoratore e integra il cobot? Le complessità sono molteplici.
L’interazione uomo-robot crea sia rischi che vantaggi in termini di SSL per quanto riguarda gli aspetti fisici, cognitivi e sociali, tuttavia un giorno i cobot potrebbero avere la capacità di ragionare e quindi dovranno far sentire gli umani al sicuro. Per raggiungere questo obiettivo, i cobot devono dimostrare di saper distinguere tra oggetti ed esseri umani e dunque di essere capaci di anticipare le collisioni, modificando di conseguenza il proprio comportamento e dimostrando una memoria sufficiente per agevolare l’apprendimento automatico e l’autonomia decisionale (TNO 2018, pag. 16) secondo le definizioni di IA precedentemente illustrate.
I contenuti presenti sul sito PuntoSicuro non possono essere utilizzati al fine di addestrare sistemi di intelligenza artificiale.