
L’intelligenza artificiale per filtrare le domande di assunzione

L’offerta di simili applicativi nel Regno Unito è presente già da qualche tempo. Ciò ha indotto il Garante britannico, ICO-information Commissioner Office, a pubblicare un documento, che mette in guardia sull’utilizzo di questi applicativi.
Il Garante britannico ha convocato un incontro con sviluppatori di applicativi di intelligenza artificiale, aziende che intendono utilizzarli ed altri soggetti coinvolti, per definire alcune regole afferenti all’utilizzo di questi applicativi, come strumento di selezione e valutazione del personale da assumere.
Anche se l’uso di questi applicativi può offrire dei benefici ai datori di lavoro, essi possono portare a rischi per i soggetti coinvolti, afferenti alla protezione ed al trattamento dei propri dati personali.
Ecco la ragione per la quale, alla fine dell’incontro, è stato pubblicato un documento, riportato in allegato, che mette in evidenza delle aree di miglioramento per questi applicativi, soprattutto in riferimento alla protezione dei dati personali.
Ad esempio, dall’esame di alcuni applicativi è apparso chiaro che essi possono portare a discriminazioni, perché sono state inserite delle chiavi selettive, che consentono ai valutatori di filtrare candidati, che avevano alcune specifiche caratteristiche.
Altri applicativi valutano il genere, l’etnia ed altre caratteristiche di chi avanza la domanda di assunzione e spesso queste informazioni non sono trattate in modo accurato e possono portare a criteri di valutazione non equilibrati. Inoltre, il Garante ha riscontrato come questi applicativi raccolgano una quantità di dati personali assai più elevata, rispetto ai dati minimi necessari.
![]() | Approfondimento della normativa ISO 11064 e altre norme per la progettazione delle sale di controllo, a cura di di Adalberto Biasiotti. |
In alcuni casi queste informazioni vengono confrontate con informazioni provenienti da altri siti, creando dei profili aggregati, che potrebbero essere ben lontani dalla realtà.
Inoltre, vi è spesso confusione fra le responsabilità che competono alle agenzie di collocamento del personale, rispetto ai soggetti che maneggiano questi applicativi. Si crea così una confusione tra il ruolo dei titolari del trattamento e quelli dei responsabili del trattamento. Molti contratti sono decisamente vaghi ed insoddisfacenti su questo critico tema.
Per contro, sono state anche riscontrati elementi positivi, come ad esempio il fatto che molti applicativi lasciano ampio spazio alle agenzie, che li utilizzano, per introdurre filtri, afferenti alla limitazione dei dati che vengono raccolti e ad un utilizzo trasparente dei dati stessi.
Al termine dell’incontro, è stato pubblicato un documento, che i lettori trovano in allegato, che comprende quasi 300 raccomandazioni per migliorare la conformità di questi applicativi ai dettati in materia di protezione dei dati personali.
Al proposito, è bene ricordare che già anni fa all’autorità garante italiana mise in chiaro che non era possibile affidare ad applicativi l’assunzione di decisioni afferenti a persone, ma che tali applicativi potevano solo avanzare proposte, che dovevano poi essere vagliate da una persona fisica, designata come autorizzato al trattamento. Già da allora, quindi, erano stati sottolineati i pericoli afferenti a decisioni automatizzate, che avrebbero potuto avere gravi conseguenze sui soggetti coinvolti.
Il rispetto di queste raccomandazioni farà sì che questi applicativi possano essere utilizzati in modo efficiente ed efficace, a beneficio delle agenzie di collocamento e degli aspiranti ad un posto di lavoro.
Vedi allegato(PDF)
Adalberto Biasiotti

I contenuti presenti sul sito PuntoSicuro non possono essere utilizzati al fine di addestrare sistemi di intelligenza artificiale.