L’intelligenza artificiale sta diventando troppo intelligente!
Negli ultimi tempi, più volte abbiamo richiamato l’attenzione dei lettori sui nuovi applicativi di intelligenza artificiale, che vengono chiamati generative AI. L’aggettivo generativo significa che l’applicativo di intelligenza artificiale reagisce in modo anche troppo costruttivo ad eventuali quesiti e nella gestione degli incarichi affidati.
Per fare un esempio oltremodo semplice, esistono già applicativi di intelligenza artificiale, installati sugli automezzi, che rallentano automaticamente il veicolo, ove esso si avvicini troppo al veicolo precedente; altri applicativi possono catturare al volo, tramite un’apposita telecamera, i segnali stradali e possono ridurre la velocità del mezzo, per evitare che superi il limite indicato dal cartello.
Gli applicativi di tipo generativo vanno molto più avanti: ad esempio, questo applicativo può tener conto di precedenti incidenti dell’autista, del numero di ore di guida dell’autista, della sua età, del fatto che manifesti fenomeni di sonnolenza, catturati tramite un sensore di infrarossi puntato sugli occhi, del fatto che utilizzi troppo spesso il telefono cellulare mentre guida e via dicendo. A questo punto l’applicativo di intelligenza artificiale può assumere il comando dell’automezzo, fino a portarlo a fermarsi in zona di sicurezza.
A questo punto, lasciamo ai lettori la valutazione della situazione e la assunzione di responsabilità in merito ai limiti di intervento, che potrebbero essere concessi a questa intelligenza artificiale, forse anche troppo intelligente!
Questo è motivo per cui ben tre organismi, di respiro mondiale, stanno attualmente concentrando la loro attenzione proprio su questi temi.
Durante il recente incontro G7, in Giappone, i partecipanti si sono impegnati a sviluppare delle normative globali per l’intelligenza artificiale, per stabilire parametri di governance e interoperabilità. L’obiettivo è quello di stabilire un approccio globale ed una visione unitaria dei paesi coinvolti, nei confronti di applicativi affidabili di intelligenza artificiale.
I partecipanti al G7 hanno riconosciuto come lo sviluppo dell’intelligenza artificiale abbia largamente superato ogni previsione e come gli organi di controllo si trovino al momento impreparati a tenere questi applicativi sotto controllo e mantenerli nell’ambito di valori democratici condivisi.
Passando dal Giappone all’Europa, la commissione europea ha proposto tre iniziative legali, fra loro interconnesse, per essere certi che lo sviluppo dell’intelligenza artificiale avvenga in un contesto affidabile.
Ecco le tre iniziative:
- un quadro legale europeo per essere certi che l’intelligenza artificiale rispetti i diritti fondamentali e tenga sotto controllo i rischi per la sicurezza ed incolumità dei cittadini,
- un quadro di riferimento per una possibile responsabilità civile, inquadrata in una era digitale,
- una revisione della legislazione di sicurezza di settore, come ad esempio il regolamento sui macchinari, la direttiva generale sulla sicurezza dei prodotti e via dicendo.
Lo sviluppo di questi tre documenti dovrebbe consentire all’Europa di mettersi in una posizione di preminenza a livello mondiale e dovrebbe aiutare gli sviluppatori e gli utilizzatori di applicativi di intelligenza artificiale a sviluppare prodotti, che possano essere classificati a quattro livelli di rischio: rischio inaccettabile, alto rischio, rischio limitato e rischio minimo.
Passando l’Atlantico, la amministrazione Biden ha deciso di sottoporre a commenti pubblici delle possibili misure di responsabilizzazione per gli sviluppatori di applicativi di intelligenza artificiale, soprattutto per quanto riguarda il problema della sicurezza nazionale e dell’educazione.
Il programma ChatGPT, che recentemente ha attirato l’interesse nazionale per la sua capacità di offrire risposte scritti ad una varia tipologia di quesiti, ha attratto l’attenzione dei legislatori americani, anche perché rappresenta un’applicazione che cresce in maniera esponenziale, con più di 100 milioni di utenti attivi al mese.
Organismi specializzati, come il Dipartimento del commercio, hanno offerto indicazioni alla Casa Bianca sulle modalità con cui può essere sviluppata una normativa, in grado di tenere sotto controllo questi applicativi. L’obiettivo di queste normative dovrebbe essere quello che gli applicativi di intelligenza artificiale siano legali, efficaci, etici, sicuri e, più in generale affidabili.
Le autorità federali americani sono convinte che i sistemi di intelligenza artificiale, sviluppati in modo appropriato, possano dare un contributo elevato allo sviluppo della nazione, ma sono parimenti convinti che la mancanza di regole possa portare a risultati potenzialmente assai pericolosi.
Ad esempio, il già menzionato applicativo ha dato ottimi risultati, con rapide ed accurate risposte, in alcuni casi, mentre ha causato un turbamento non indifferente ad alcuni soggetti, per risposte non accurate, che sono state prese come vangelo dagli utenti dell’applicativo.
Un gruppo tecnico ed etico, chiamato Centro per l’intelligenza artificiale ed una politica digitale, ha chiesto alla commissione del commercio degli Stati Uniti di impedire la distribuzione di nuove edizioni della applicazione GPT-4, sino a che non saranno stati effettuate verifiche di correttezza, protezione dei dati personali e sicurezza del pubblico.
Adalberto Biasiotti
I contenuti presenti sul sito PuntoSicuro non possono essere utilizzati al fine di addestrare sistemi di intelligenza artificiale.