I mille problemi legati agli applicativi di riconoscimento facciale
Negli ultimi tempi le cronache hanno dedicato molta attenzione agli applicativi di riconoscimento facciale, che stanno trovando campi di applicazione sempre più vasti. È recentissima la notizia che la società aeroporti di Milano- SEA- ha cominciato ad applicare questa tecnologia per gestire in modo automatizzato la registrazione dei passeggeri ed il rilascio delle carte di imbarco.
Un uso appropriato di queste tecnologie deve prendere in considerazione due aspetti:
- gli aspetti tecnologici,
- gli aspetti di protezione dei dati personali.
Vediamo insieme questi due aspetti.
Gli aspetti tecnologici
Nessuno può dubitare del fatto che negli ultimi tempi questi applicativi siano migliorati in maniera significativa, mettendo sotto controllo i numerosi problemi, esistenti in precedenza, riferiti alla diversa accuratezza di riconoscimento delle persone, ad esempio a seconda della etnìa di appartenenza.
Ciò non toglie che questi miglioramenti sino ad oggi siano stati prevalentemente misurati nell’ambito di test di laboratorio, e non ancora verificati sul campo.
Per quanto riguarda le applicazioni sul campo, si sono avute reazioni positive, in particolare in applicazioni che consentono di rendere più rapido l’accesso ai servizi pubblici, mentre sono state registrate reazioni negative, legate ad esempio ad arresti ingiustificati ed alla introduzione di tecniche di sorveglianza su specifiche comunità. Ecco perché un recente studio, pubblicato dal GAO, offre alcuni suggerimenti su come sia possibile approfondire alcune aree critiche, come ad esempio:
- occorre sviluppare delle valutazioni approfondite sugli effetti delle tecnologie biometriche, a fini di identificazione,
- bisogna incoraggiare una maggiore diffusione, fra i soggetti coinvolti, delle conseguenze connesse all’uso di queste tecnologie,
- occorre sviluppare un approccio, basato sull’analisi del rischio, per sviluppare regolamenti e linee guida,
- occorre rispettare i dettati in materia di protezione dati personali (vedi in seguito),
- occorre addestrare in modo più approfondito ed incisivo il personale, che deve selezionare e gestire queste tecnologie.
Vediamo ora gli aspetti legati alla protezione dei dati personali
Tutte le autorità garanti d’Europa prestano estrema attenzione al fatto che questi applicativi di identificazione biometrica stanno comincia ad occupare uno spazio crescente nella società civile.
Il problema maggiore, sino ad ora rilevato, riguarda il fatto che gli sviluppatori di questi applicativi, e gli enti coinvolti, prestano molta più attenzione agli aspetti tecnologici, rispetto agli aspetti afferenti alla protezione dei dati personali. Ad esempio, durante una recente indagine si è potuto appurare che per un applicativo non era stata effettuata la valutazione ex articolo 25 (Protezione dei dati fin dalla progettazione e protezione per impostazione predefinita) e neppure la valutazione di impatto, ex articolo 35 del regolamento generale europeo. Si tratta, come è evidente, di gravi lacune, che dovrebbero impedire l’attivazione e l’utilizzo di questi applicativi.
Un’altra lacuna frequentemente riscontrata riguarda la durata di conservazione dei dati, che spesso non viene determinata, perché legata a fattori che potrebbero non essere noti neppure al soggetto che gestisce l’applicativo. Ad esempio, nel caso già citato di un applicativo di riconoscimento facciale per il controllo dei passeggeri in aeroporto, è evidente che i dati relativi dovrebbero essere conservati per tempi molto lunghi, per evitare che il passeggero debba registrarsi nuovamente, magari a distanza di pochi mesi.
Sono tutti aspetti che devono essere presi in considerazione, con l’assistenza del responsabile della protezione dei dati, meglio se certificato secondo la norma UNI 11697, in modo che un eventuale richiesta di chiarimenti, da parte dell’autorità garante, possa essere soddisfatta in modo tale da tranquillizzare l’autorità garante e offrire rassicurazioni agli interessati, i cui dati vengono trattati da questi applicativi.
Adalberto Biasiotti
I contenuti presenti sul sito PuntoSicuro non possono essere utilizzati al fine di addestrare sistemi di intelligenza artificiale.