Per utilizzare questa funzionalità di condivisione sui social network è necessario accettare i cookie della categoria 'Marketing'
Crea PDF

Intelligenza Artificiale: i principi etico-legali

Abbiamo già parlato dei sistemi di Intelligenza Artificiale, destinati ad un futuro ricco di soddisfazioni dal momento che la potenziale applicazione di queste tecnologie non conosce limiti di settore: dal commercialie strategico, al medico-sanitario, economico-finanziario e giuridico.

I possibili ostacoli alla diffusione dei sistemi di machine learning hanno natura etica e giuridica, piuttosto che tecnologica.

"Il principale problema da affrontare quando si approcciano questi temi è che, per quanto creati dall’uomo, questi sistemi spesso si evolvono in modo così complesso che nemmeno l’uomo è in grado di comprenderli fino in fondo. Alcuni modelli molto sofisticati sono davvero difficili da interpretare, perché è quasi impossibile scrutarne il comportamento interno e giustificarne le decisioni che, in molti casi, si dovrebbero accettare pressoché a scatola chiusa" afferma l'avvocato Vittorio Colomba. 

Nell'attesa di sanare queste lacune nel futuro, i principi etici riconosciuti a fondamento della materia (trasparenza, giustizia, non maleficenza, responsabilità e privacy) sono stati interpretati da ogni paese a modo proprio e si sono tradotti in linee guida etico-legali per l’uso responsabile dell’IA profondamente diverse in tutto il mondo, a seconda del contesto culturale.  

Le posizioni si spostano su un asse che ha ai suoi estremi regolamentazione e innovazione.

Stati Uniti

Gli USA risentono del modello Silicon Valley: “move fast, break things, apologise later”. Il Governo incide pochissimo, dal punto di vista regolamentare, sullo sviluppo della tecnologia e sulla spinta all'innovazione.

Cina

"L’approccio cinese è influenzato dai valori confuciani e dall’ideologia socialista, per cui al centro di ogni innovazione è comunque posto l’obiettivo dell’armonia sociale, da conseguire anche attraverso elementi di controllo morale e sorveglianza da parte del governo" spiega Colomba.

Europa

L’approccio dell’Unione Europea è basato sulla regolamentazione, il rispetto dei diritti fondamentali e della democrazia. "Lo sviluppo dei sistemi di IA deve quindi conformarsi a quattro principi etici considerati irrinunciabili: prevenzione da rischi, rispetto per l’autonomia umana, equità e spiegazione".

Questo approccio è visto da alcuni comelimitante allo sviluppo dell’IA, di contro, altri ritengono che si tradurrà in un vantaggio competitivo: i consumatori saranno più favorevolmente attratti da sistemi in grado di offrire maggiori garanzie e tutele.

Nel 2019 la Commissione Europea tramite un gruppo di esperti “High-Level Expert Group on AI” (AI HLEG) ha prodotto alcune linee guida per lo sviluppo dei sistemi di IA. Tra i sette principi enunciati, ve ne sono alcuni sui quali è opportuno soffermarsi: 

1. Privacy

La necessità di proteggere i dati durante l’intero ciclo di vita della tecnologia è riconosciuto e tutelato grazie a un meccanismo di valutazione sistematica in grado di quantificare l’impatto di ogni modello sulla protezione dei dati.

"La fase di apprendimento dei modelli di machine learning, di regola, si basa sull’utilizzo di dati de-identificati, che quindi non consentono l’individuazione diretta degli individui cui si riferiscono. Tuttavia, è possibile che associando quei dati ad altre informazioni potrebbe rivelarsi possibile re-identificare gli interessati, con potenziali rischi per i loro diritti e le loro libertà individuali".

2. Data governance

E' imprescindibile una adeguata data governance, che includa l’implementazione di protocolli e procedure per l’accesso ai dati e garantire la loro qualità e integrità.

Tutto ciò è ancora più vero in relazione ai sistemi di IA che prevedono il trattamento di dati “particolari”, ad esempio quelli sanitari, da affrontare attraverso una rigida applicazione del principio “privacy by design” enucleato dal GDPR.

3. Trasparenza e interpretabilità

In ogni momento, un sistema di IA dovrebbe dare la possibilità di ottenere una visione completa di tutto il meccanismo, ma, come detto in precedenza, la maggior parte dei sistemi di IA sfrutta modelli di machine learning molto complessi, tali da rendere spesso poco fattibile la ricostruzione, nel dettaglio, del processo decisionale. Per questo motivo gli sforzi tecnologici si stanno concentrando anche in questa direzione.


I contenuti presenti sul sito PuntoSicuro non possono essere utilizzati al fine di addestrare sistemi di intelligenza artificiale.

Per visualizzare questo banner informativo è necessario accettare i cookie della categoria 'Marketing'

Pubblica un commento

Ad oggi, nessun commento è ancora stato inserito.

Pubblica un commento

Banca Dati di PuntoSicuro


Altri articoli sullo stesso argomento:


Forum di PuntoSicuro Entra

FORUM di PuntoSicuro

Quesiti o discussioni? Proponili nel FORUM!