E’ quasi pronto il regolamento europeo sull’utilizzo dell’intelligenza artificiale
Nessuno dubita che l’intelligenza artificiale possono aiutare nel trovare soluzioni a molti problemi della nostra società civile. Tuttavia questi applicativi sono utilizzabili solo se danno garanzie di elevata qualità e sono stati sviluppati in modo da offrire un livello di affidabilità soddisfacente agli utenti.
Questo è motivo per cui l’unione europea già da tempo aveva avviato lo studio di un regolamento per l’utilizzo di applicativi di intelligenza artificiale.
In allegato a questo appunto, è riportato l’intero regolamento di 108 pagine, ma penso sia appropriato offrirne una sintesi ai lettori, che forse non hanno a disposizione il tempo necessario, per leggere questo testo.
La commissione propone una serie di nuove regole per fare in modo che gli applicativi di intelligenza artificiale siano trasparenti, etici, non polarizzati e sempre sotto controllo umano. La commissione ha classificato a cinque livelli gli ambiti in cui possono essere utilizzati gli applicativi di intelligenza artificiale.
Il primo livello è considerato inaccettabile-
Ciò significa un applicativo che rientra in questa categoria può essere considerato una evidente minaccia per i cittadini europei e deve esserne proibito qualsiasi utilizzo in ambito europeo. Un esempio di questi applicativi si trova nell’intelligenza artificiale presente in alcuni giocattoli, che potrebbe incoraggiare comportamenti pericolosi nei bambini.
Al secondo livello si trovano i contesti di alto rischio -
Gli applicativi vengono utilizzati in una serie di contesti particolari, come ad esempio le infrastrutture critiche, la formazione degli allievi e dei dipendenti, la componentistica di sicurezza antinfortunistica, presente in macchinari vario tipo, la gestione dei dipendenti, compresa l’analisi automatica dei curriculum vite, i servizi essenziali pubblici o privati, come ad esempio qualsiasi applicativo che attribuisca un punteggio ad un cittadino, che desidera accedere a particolari servizi, i contesti legati all’immigrazione, all’asilo ed ai controlli di frontiera ed infine all’amministrazione della giustizia e dei processi democratici. L’utilizzo di applicativi di intelligenza artificiale in tutti questi contesti richiede il rispetto di tutta una serie di garanzie, dettagliatamente illustrate nel progetto di regolamento.
Il terzo livello corrisponde ad applicazioni a rischio limitato-
Un applicativo, come ad esempio quello utilizzato nei chatbox, è assoggettato a obblighi minimi di trasparenza, che permettono ai soggetti che interagiscono con questo applicativo di assumere decisioni informate. L’utente può quindi decidere se continuare a utilizzare l’applicativo di intelligenza artificiale od abbandonarlo.
Il quarto livello corrisponde a contesti di minimo rischio-
Alcuni esempi di questi contesti sono evidentemente i videogame e i filtri antispam. La grande maggioranza dei sistemi di intelligenza artificiale, che ricadono in questa categoria, non presenta rischi per la sicurezza e per il rispetto dei diritti dei cittadini.
Una volta che questi applicativi sono immessi sul mercato, le autorità di controllo possono sorvegliare il mercato stesso, accertandosi che essi rispettino le regole, corrispondenti al livello di rischio per il quale sono state classificati.
Infine, viene posto un obbligo specifico agli sviluppatori di questi applicativi di riferire alle autorità costituite qualsiasi incidente o anomalia che sia stato rilevato.
Vedi allegato (pdf)
Adalberto Biasiotti
I contenuti presenti sul sito PuntoSicuro non possono essere utilizzati al fine di addestrare sistemi di intelligenza artificiale.