Per utilizzare questa funzionalità di condivisione sui social network è necessario accettare i cookie della categoria 'Marketing'
Crea PDF

L’intelligenza artificiale incontra la prevenzione

L’intelligenza artificiale incontra la prevenzione
Redazione

Autore: Redazione

Categoria: Nuove tecnologie

20/01/2023

Il 20 ottobre scorso, in occasione della 7a Conferenza EUROSHNET, circa 130 esperti impegnati nei settori prevenzione, ricerca, normazione e politica si sono riuniti per discutere delle sfide che l’intelligenza artificiale comporta per la prevenzione.

Già oggi l’intelligenza artificiale trova impiego in numerosi settori. Tra questi figurano p. es. trasporti e logistica, industria, agricoltura, sanità, risorse umane e assicurazioni. Tuttora, però, manca una definizione unitaria del concetto d’intelligenza artificiale. Raja Chatila, professore presso l’istituto di sistemi intelligenti e robotica della Sorbona di Parigi, ha sottolineato che occorre una definizione di respiro sufficientemente ampio da poter coprire tutti i sistemi d’IA presenti e futuri, ma nello stesso tempo abbastanza circoscritta da permettere di formulare concreti requisiti in materia di sistemi. Il comune denominatore delle applicazioni d’IA consiste nel fatto che elaborano grandi quantità di dati e giungono quindi a conclusioni logiche avvalendosi di modelli statistici. Come precisato da Chatila, tuttavia, l’IA non riconosce né la qualità né il contesto da cui provengono i dati e in molti casi non è che una “scatola nera” i cui processi decisionali rimangono incomprensibili per l’uomo. 

Pubblicità
MegaItaliaMedia


Quali sono i tratti distintivi di una buona IA? 
Per poter essere accettata dall’uomo e utilizzata in modo responsabile, l’intelligenza artificiale deve essere affidabile. Un gruppo di autorevoli esperti d’IA della Commissione UE ha definito dei criteri che concretizzano il concetto di affidabilità e devono essere soddisfatti. L’uomo, p. es., deve mantenere il controllo. I sistemi devono essere trasparenti, tecnicamente robusti e sicuri. Occorre inoltre che sia garantita la protezione dei dati, che siano esclusi discriminazione ed errori di sistema e che vengano chiarite le responsabilità legali del caso. Raja Chatila ha inoltre fatto presente che l’IA non può essere considerata isolatamente, ma va sempre vista nel suo contesto applicativo, dunque in relazione al sistema in cui trova impiego.

Partendo da esempi assai eloquenti, André Steimers, professore presso l’università di Coblenza, ha mostrato con quanta facilità l’IA possa giungere a conclusioni errate. Ciò può essere dovuto a dati obsoleti o non rappresentativi. In molti casi, tuttavia, per l’uomo è molto difficile – se non impossibile – risalire alle ragioni di questi errori. Secondo Steimers occorrerebbe pertanto chiedersi quanto affidabile sia un sistema e che grado di automatizzazione si sia disposti ad accettare, soprattutto in settori critici in termini di sicurezza.

Sebastian Hallensleben, presidente del comitato congiunto CEN/CENELEC per l’intelligenza artificiale, ha sottolineato come la normazione possa prestare un importante contributo all’affidabilità dell’IA e ricordato la necessità di un approccio risolutivo che possa essere adottato sia dall’industria che da autorità di regolamentazione e consumatori e che renda comprensibili i vari aspetti. Tra le varie possibilità vi sarebbe quella di etichette standardizzate come quelle per l’efficienza energetica degli apparecchi elettronici. Queste permetterebbero di verificare a colpo d’occhio il grado di trasparenza, comprensibilità, protezione dei dati, equità e affidabilità offerto da un prodotto d’IA.

Occorre un quadro regolamentare
Ai fini di un impiego sicuro dell’IA è indispensabile che la regolamentazione europea mantenga il passo con gli sviluppi della tecnica. Victoria Piedrafita – che in seno alla Direzione generale GROW della Commissione Europea si occupa del previsto regolamento in materia di macchine – ha spiegato in che modo tale regolamento tiene conto dell’intelligenza artificiale e come si configura l’interazione con il regolamento sull’IA. Tutte le applicazioni d’IA riguardanti funzioni di rilievo dal punto di vista della sicurezza devono per esempio rientrare nella categoria di rischio più alta per la quale è obbligatoriamente prevista una certificazione da parte di un ente notificato. Devono inoltre essere considerati anche i rischi che insorgono solo dopo la messa in circolazione poiché le macchine si evolvono da sé. Ove ciò non avvenga, una macchina non può essere messa in circolazione: alla sicurezza spetta infatti la massima priorità.

Per ora non è ancora chiaro in che misura il previsto regolamento sull’IA sia applicabile a settori d’impiego che vanno a tangere la prevenzione aziendale o questioni di contrattazione collettiva. Antonio Aloisi, dell’IE University Law School di Madrid, ha sottolineato come, nel caso di molte funzioni dirigenziali, l’uomo venga ormai sostituito – o per lo meno coadiuvato – da algoritmi. Questi ultimi valutano i curriculum vitae, impartiscono istruzioni di lavoro, misurano la prestazione dei lavoratori e talvolta incidono persino sui licenziamenti. Ad oggi, tuttavia, nella legislazione, nei contratti collettivi come pure nelle valutazioni dei rischi non se ne tiene adeguatamente conto. Questo vuoto normativo andrebbe urgentemente colmato. Da vari interventi è inoltre emerso quanto sia importante che i dati considerati in relazione a ciascun quesito siano adeguati ed equilibrati. In caso contrario potrebbe accadere che, contestualmente a decisioni prese per via automatica, vengano fatte preferenze in base al sesso, all’età o al colore della pelle di una persona.

Quanto severa deve essere la regolamentazione?
Nel corso del dibattito conclusivo Isabelle Schömann (Confederazione europea dei sindacati) ha messo in guardia dall’applicare il principio “trial and error” nel quadro dell’introduzione di applicazioni d’IA. La legislazione europea sancisce in modo inequivocabile la non accettabilità dei prodotti non sicuri. Jörg Firnkorn (DEKRA) ha sostenuto l’importanza di una via di mezzo: a suo avviso occorre evitare sia una carenza che un eccesso di regolamentazione. Da un rischio calcolato – ha spiegato – scaturisce anche la possibilità d’imparare dagli errori compiuti e migliorare la tecnica. Franck Gambelli (organizzazione francese dei datori di lavoro UIMM) ha tracciato un parallelo con la crescente robotizzazione di 30 anni fa. Anche in quel caso – ha ricordato – inizialmente vi furono grandi perplessità. Nel tempo, tuttavia, queste non hanno trovato conferma. Per Gambelli è importante che la normazione offra un aiuto concreto per l’applicazione. Christoph Preuße (ente assicurativo industriale per gli infortuni sul lavoro dell'industria del legno e del metallo) ha fatto presente che, per l’Europa, anche le attività portate avanti da altri paesi rivestono un ruolo importante. Cina e USA, per esempio, mirano a elaborare norme internazionali che vanno a tangere anche questioni di organizzazione del lavoro. Le imprese operanti su scala internazionale non saranno disposte a differenziare i loro prodotti in funzione delle peculiarità delle varie regioni del mondo.

Agire anziché reagire
“Fare prevenzione significa agire in modo lungimirante. In veste di rappresentanti del settore della prevenzione non possiamo aspettare di vedere quel che succede per poi reagire”: così la presidente di EUROSHNET Pilar Cáceres Armendáriz (istituto spagnolo di prevenzione INSST) nel suo intervento conclusivo. In questo senso la conferenza presta un importante contributo affinché i gruppi interessati entrino in contatto, si confrontino, imparino gli uni dagli altri e stabiliscano in che modo l’intelligenza artificiale possa essere considerata nel miglior modo possibile nel quadro della legislazione e della prevenzione.

Sonja Miesner
Michael Robert

Fonte: KanBrief n. 4/2022

Per visualizzare questo banner informativo è necessario accettare i cookie della categoria 'Marketing'

Pubblica un commento

Ad oggi, nessun commento è ancora stato inserito.

Pubblica un commento

Banca Dati di PuntoSicuro


Altri articoli sullo stesso argomento:


Forum di PuntoSicuro Entra

FORUM di PuntoSicuro

Quesiti o discussioni? Proponili nel FORUM!