La “legge” europea sulla intelligenza artificiale: facciamo chiarezza
I lettori mi perdoneranno se illustro subito il motivo per cui ho messo tra virgolette la parola legge.
L’Unione europea non emana alcuna legge, ma direttive e regolamenti. Le direttive sono delle indicazioni, che devono essere recepite in ogni paese con l’emissione di specifici decreti legislativi, mentre i regolamenti devono essere recepiti senza modifiche in tutti paesi e non hanno bisogno di approvazioni da parte dei parlamenti nazionali.
Al momento, il documento in questione non è ancora un regolamento, perché ha bisogno di un ulteriore intervento, di tipo formale, e dell’approvazione finale da parte del Consiglio d’Europa; si presume pertanto che esso potrà essere pubblicato, come regolamento europeo, prima delle nuove elezioni del parlamento europeo.
Ciò premesso, vediamo di illustrare brevemente i contenuti di questo documento, indubbiamente antesignano rispetto ogni altro documento similare pubblicato nel mondo.
Nella fattispecie, ci troviamo davanti ad un regolamento, che introduce tutta una serie di garanzie afferenti all’utilizzo di sistemi di intelligenza artificiale, per finalità generali e generiche.
Questa bozza di regolamento inoltre pone delle significative limitazioni all’utilizzo di sistemi di identificazione biometrica, da parte delle forze dell’ordine. È un argomento oltremodo importante, perché negli ultimi tempi gli archivi dei volti di soggetti, buoni o cattivi che siano, si sono espansi in misura esponenziale e, in assenza di adeguate regole, è possibile che il riconoscimento facciale non soddisfi a garanzie minime di rispetto dei diritti dei soggetti coinvolti.
Un altro aspetto oltremodo importante, sempre afferente all’uso di applicativi di intelligenza artificiale, riguarda il fatto che essi non possono essere utilizzate per valutazioni creditizie o per manipolare o sfruttare la vulnerabilità degli utenti. Al proposito, giova ricordare che già in precedenza l’autorità garante non consentiva che una valutazione di affidabilità del credito di un soggetto fosse affidata solo ad applicativi informatici, ma fosse sempre necessarie l’approvazione finale da parte di un soggetto fisico.
Infine la bozza di regolamento stabilisce che i consumatori avranno diritto a presentare reclami e ricevere spiegazioni, a fronte di situazioni, che possano coinvolgerli e che derivino da valutazioni effettuate da applicativi di intelligenza artificiale.
La bozza di regolamento continua, proibendo l’utilizzo di applicativi di intelligenza artificiale che possano minacciare i diritti dei cittadini. Ad esempio, il fatto che queste applicazioni possano creare delle categorie di cittadini, cui vengono attribuite coefficienti premianti o penalizzanti.
In questo contesto, del tutto proibiti sono gli applicativi che permettono di valutare i comportamenti emotivi sul luogo di lavoro, catturando l’immagine dell’operatore che si trova davanti al computer.
Nel quadro delle limitazioni applicabili all’utilizzo di questi applicativi, da parte delle forze dell’ordine, la bozza di regolamento stabilisce delle rigorose garanzie, consentendo l’utilizzo di questi applicativi, ad esempio, per la ricerca di persone scomparse o per prevenire un attacco terroristico. Queste applicazioni sono tollerate in quanto utili a fronteggiare possibili situazioni di alto rischio.
Un aspetto oltremodo interessante riguarda il fatto che questi applicativi devono rispettare il diritto d’autore, cosa che sistematicamente non è avvenuta negli ultimi tempi. Al proposito, vorrei ricordare ai lettori che la radiotelevisione italiana fa comparire regolarmente, al termine di proprie trasmissioni, un messaggio nel quale si proibisce ad applicativi di intelligenza artificiale di attingere ai contenuti delle trasmissioni in questione.
Lo scrivente ha già avuto occasione di far presente come nei capitolati di gara egli chieda esplicitamente che l’offerente non inserisca, nell’offerta, alcuna parte tratta da applicativi di intelligenza artificiale e non di sua originale elaborazione.
Vedi allegato, che viene presentato come bozza e non come documento finale.
Adalberto Biasiotti
I contenuti presenti sul sito PuntoSicuro non possono essere utilizzati al fine di addestrare sistemi di intelligenza artificiale.