Per utilizzare questa funzionalità di condivisione sui social network è necessario accettare i cookie della categoria 'Marketing'
Per visualizzare questo banner informativo è necessario accettare i cookie della categoria 'Marketing'
Gig work: cos'è e quali sono i rischi per i lavoratori?
Pubblichiamo un estratto del documento di Eu-Osha “L’SSL e il futuro del lavoro: vantaggi e rischi degli strumenti di intelligenza artificiale negli ambienti di lavoro”.
Piattaforme digitali a supporto del gig work
Il cosiddetto «gig work» è il risultato dell’uso di applicazioni online (app), dette anche piattaforme, messe a disposizione da aziende come Uber, Upwork o Amazon Mechanical Turk (AMT). Il lavoro può essere svolto online, ottenuto ed eseguito sui computer di case private, biblioteche o Internet cafè per esempio, e include lavori di traduzione e progettazione, oppure offline, cioè ottenuto online ma non svolto su Internet, per esempio guidare taxi o fare lavori di pulizia. Non tutti gli algoritmi utilizzano l’IA, tuttavia le informazioni prodotte dai servizi che abbinano clienti e lavoratori e le recensioni dei clienti sui lavoratori della piattaforma producono dati che contribuiscono ad aggiornare i profili, generando punteggi complessivi più alti o più bassi, i quali, per esempio, inducono i clienti a selezionare specifiche persone per un lavoro rispetto ad altre.
Il monitoraggio e il tracciamento sono esperienze quotidiane da molti anni per corrieri e tassisti, ma l’aumento di lavoratori della gig economy offline che consegnano cibo in bicicletta o altri ordini ed effettuano servizi di taxi gestiti da piattaforma è relativamente nuovo. Uber e Deliveroo richiedono ai lavoratori di installare un’applicazione specifica sui loro telefoni, che vengono poi posizionati sui cruscotti o manubri dei veicoli, e ottengono clienti attraverso l’uso di tecnologie satellitari di mappatura e l’abbinamento con software che operano su base algoritmica. L’utilizzo dell’IA nei gig work potrebbe portare vantaggi quali la tutela del conducente e dei passeggeri. DiDi, un servizio cinese di autista (ride-hailing), utilizza un software di riconoscimento facciale basato sull’IA per identificare i lavoratori quando accedono all’applicazione. DiDi utilizza queste informazioni per verificare l’identità dei conducenti, un metodo per prevenire la criminalità. Tuttavia, recentemente si è verificata una grave falla nell’uso della tecnologia, per cui una sera un conducente ha effettuato il login con l’identità del padre. Sotto falsa identità, poi, durante il suo turno il conducente ha ucciso un passeggero.
I gig worker addetti alla consegna sono responsabili della velocità, del numero di consegne per ora e del punteggio recensito dai clienti, in un ambiente intensificato che ha dimostrato di creare rischi SSL. Nella rivista Harper un conducente spiega come i nuovi strumenti digitalizzati siano una sorta di «frusta mentale», osservando che «le persone sono intimidite e lavorano più velocemente» (The Week, 2015). I conducenti e i ciclisti rischiano che l’app venga disattivata se le recensioni dei clienti non sono sufficientemente positive o non soddisfano altri requisiti. Ciò si traduce in rischi SSL, tra cui un palese trattamento iniquo, stress e persino paura.
Nei gig work online (chiamati anche microlavori), gli algoritmi vengono utilizzati per abbinare i clienti ai lavoratori. Una piattaforma chiamata BoonTech utilizza il servizio Watson AI Personality Insights della IBM per abbinare clienti e gig worker online, per esempio quelli che ottengono contratti usando AMT e Upwork. Sono emerse questioni di discriminazione legate alle responsabilità domestiche delle donne, quando si svolgono gig work online nella propria casa, per esempio attività legate alla maternità e assistenziali in un contesto tradizionale. Una recente indagine svolta dai ricercatori dell’OIL sui gig worker online mostra una percentuale più elevata di donne rispetto agli uomini che tende a «preferire lavorare a casa» (Rani e Furrer, 2017, pag. 14). L’indagine di Rani e Furrer mostra che il 32 % delle lavoratrici nei paesi africani e il 42 % in America latina ha bambini piccoli. Ciò comporta un carico aggiuntivo di lavoro per le donne, che «trascorrono circa 25,8 ore a settimana a lavorare sulle piattaforme, di cui 20 ore di lavoro sono retribuite e 5,8 ore sono considerate lavoro non retribuito» (ibid., pag. 13). L’indagine mostra che il 51 % delle donne lavora durante la notte (dalle 22:00 alle 05:00) e la sera (il 76 % lavora dalle 18:00 alle 22:00), ovvero le «ore di lavoro disagevoli», secondo le categorie di rischio OIL per potenziali violenze e molestie legate al lavoro (OIL, 2016, pag. 40). Rani e Furrer affermano inoltre che l’esternalizzazione globale del lavoro nelle piattaforme ha effettivamente portato allo sviluppo di una «economia h24... erodendo i confini fissi tra casa e lavoro... comportando [così] un onere aggiuntivo per le donne, dato che le responsabilità domestiche sono distribuite in modo non uniforme tra i sessi» (2017, pag. 13). Lavorare da casa potrebbe già rivelarsi un ambiente rischioso per le donne, le quali potrebbero essere soggette a violenza domestica oltre che alla mancanza di protezione legale fornita in un contesto lavorativo d’ufficio. In effetti, «violenze e molestie possono verificarsi... attraverso le tecnologie che confondono i confini tra luoghi di lavoro, luoghi domestici e spazi pubblici» (OIL, 2017, pag. 97).
La digitalizzazione di lavori non ordinari, come i gig work online a domicilio, o quelli offline quali i servizi di taxi e di consegna, rappresenta un metodo di gestione basato sulla quantificazione dei compiti a un livello granulare, in cui viene pagato solo il tempo effettivo di contatto. Potrebbe sembrare che la digitalizzazione formalizzi un mercato del lavoro nel senso indicato dall’OIL, tuttavia il rischio di sottoccupazione e di retribuzione inadeguata è alquanto reale. In termini di orario di lavoro, le attività di preparazione volte a migliorare la reputazione e lo sviluppo delle competenze necessarie nel gig work online non sono retribuite. La sorveglianza è normalizzata, eppure lo stress continua a manifestarsi. D’Cruz e Noronha (2016) presentano un caso di studio di gig worker online indiani, in cui l’approccio «humans-as-a-service» (come articolato da Jeff Bezos, cfr. Prassl, 2018) viene criticato in quanto tipologia di lavoro che disumanizza e svaluta il lavoro stesso, facilita il ricorso casuale ai lavoratori, giungendo persino a informalizzare l’economia. I gig work online, come quelli ottenuti e svolti tramite AMT, si basano su forme di lavoro non ordinarie (ibid., pag. 46) che incrementano il rischio di lavoro minorile, lavoro forzato e discriminazione. Esistono episodi dimostrati di razzismo, in cui alcuni clienti hanno lasciato commenti offensivi e violenti sulle piattaforme. Esistono anche casi di comportamenti razzisti tra i lavoratori: i gig worker che lavorano in economie più avanzate incolpano le controparti indiane di offrire prezzi al ribasso (ibid.). Inoltre, parte del lavoro ottenuto su piattaforme online è estremamente spiacevole, come quello svolto dai moderatori di contenuti, che passano al setaccio grandi volumi di immagini con il compito di eliminare quelle offensive o moleste, con pochissimo sostegno o protezione. Data la mancanza di un livello basilare di protezione in questi ambienti di lavoro, esistono chiari rischi di violazioni della SSL per quanto riguarda l’aumento della violenza e dello stress psicosociali, la discriminazione, il razzismo, il bullismo, il lavoro forzato e minorile.
Nella gig economy, i lavoratori sono stati costretti a registrarsi come lavoratori autonomi, perdendo i diritti fondamentali di cui godono i lavoratori formalmente occupati quali orario garantito, indennità di malattia, ferie pagate e il diritto di aderire a un sindacato. La reputazione online dei gig worker è molto importante perché una reputazione positiva permette di ottenere più lavoro. Come accennato in precedenza, le valutazioni e le recensioni digitalizzate dei clienti sono fondamentali per sviluppare una buona reputazione e determinano la quantità di lavoro ottenuta dai gig worker. Gli algoritmi imparano dalle graduatorie dei clienti e dalla quantità di compiti accettati, producendo tipologie specifiche di profili per i lavoratori che sono normalmente disponibili al pubblico. Le recensioni dei clienti non tengono conto della salute fisica, delle responsabilità domestiche e assistenziali dei lavoratori e delle circostanze al di fuori del loro controllo che potrebbero influire sulle loro prestazioni, portando a ulteriori rischi SSL per cui le persone si sentono costrette ad accettare più lavoro di quanto sia raccomandabile altrimenti rischiano di essere esclusi da lavori futuri. Il grado di soddisfazione dei clienti e il numero di lavori accettati possono determinare la «disattivazione» dell’uso della piattaforma da parte dei tassisti, come avviene in Uber, nonostante paradossalmente e apparentemente gli algoritmi non siano soggetti a «pregiudizi umani» (Frey e Osborne, 2013, pag. 18).
Nel complesso, l’integrazione dell’IA nei gig work porta dei benefici, tra cui la tutela dell’identità del conducente e la possibilità di orari di lavoro flessibili, che sono aspetti positivi per la vita privata e lavorativa delle persone. Tuttavia, questi stessi benefici possono aumentare i rischi, come nel caso citato del conducente DiDi e per la condizione delle lavoratrici online con un onere lavorativo doppio. Le tutele SSL sono generalmente scarse in questi ambienti di lavoro e i rischi sono molteplici (Huws, 2015; Degryse, 2016) tra cui remunerazioni inadeguate e orari di lavoro lunghi (Berg, 2016), mancanza endemica di formazione (CIPD, 2017) e un livello elevato di insicurezza (Taylor, 2017). Williams-Jimenez (2016) ricorda che le leggi sul lavoro e sulla SSL non sono ancora adeguate all’emergere del lavoro digitalizzato e che altri studi iniziano a sostenere ipotesi simili (Degryse, 2016). Il successo dell’IA alla fine coincide con il suo fallimento.
Questo articolo è pubblicato sotto una Licenza Creative Commons.
I contenuti presenti sul sito PuntoSicuro non possono essere utilizzati al fine di addestrare sistemi di intelligenza artificiale.