Per utilizzare questa funzionalità di condivisione sui social network è necessario accettare i cookie della categoria 'Marketing'
Crea PDF

L’intelligenza artificiale sta diventando troppo intelligente!

L’intelligenza artificiale sta diventando troppo intelligente!
Adalberto Biasiotti

Autore: Adalberto Biasiotti

Categoria: Sicurezza informatica

28/06/2023

Il fatto che UE, USA e G7 si stiano contemporaneamente preoccupando dei problemi legati all’intelligenza artificiale generativa, per esempio la famiglia ChatGPT, dimostra come queste applicazioni abbiano bisogno di elementi di guida e correttivi.

Negli ultimi tempi, più volte abbiamo richiamato l’attenzione dei lettori sui nuovi applicativi di intelligenza artificiale, che vengono chiamati generative AI. L’aggettivo generativo significa che l’applicativo di intelligenza artificiale reagisce in modo anche troppo costruttivo ad eventuali quesiti e nella gestione degli incarichi affidati.

 

Per fare un esempio oltremodo semplice, esistono già applicativi di intelligenza artificiale, installati sugli automezzi, che rallentano automaticamente il veicolo, ove esso si avvicini troppo al veicolo precedente; altri applicativi possono catturare al volo, tramite un’apposita telecamera, i segnali stradali e possono ridurre la velocità del mezzo, per evitare che superi il limite indicato dal cartello.

 

Gli applicativi di tipo generativo vanno molto più avanti: ad esempio, questo applicativo può tener conto di precedenti incidenti dell’autista, del numero di ore di guida dell’autista, della sua età, del fatto che manifesti fenomeni di sonnolenza, catturati tramite un sensore di infrarossi puntato sugli occhi, del fatto che utilizzi troppo spesso il telefono cellulare mentre guida e via dicendo. A questo punto l’applicativo di intelligenza artificiale può assumere il comando dell’automezzo, fino a portarlo a fermarsi in zona di sicurezza.

 

A questo punto, lasciamo ai lettori la valutazione della situazione e la assunzione di responsabilità in merito ai limiti di intervento, che potrebbero essere concessi a questa intelligenza artificiale, forse anche troppo intelligente!

 

Questo è motivo per cui ben tre organismi, di respiro mondiale, stanno attualmente concentrando la loro attenzione proprio su questi temi.


Pubblicità
La progettazione delle sale di controllo: la serie ISO 11064 ed altre norme - eBook in pdf
Approfondimento della normativa ISO 11064 e altre norme per la progettazione delle sale di controllo, a cura di di Adalberto Biasiotti.

 

Durante il recente incontro G7, in Giappone, i partecipanti si sono impegnati a sviluppare delle normative globali per l’intelligenza artificiale, per stabilire parametri di governance e interoperabilità. L’obiettivo è quello di stabilire un approccio globale ed una visione unitaria dei paesi coinvolti, nei confronti di applicativi affidabili di intelligenza artificiale.

 

I partecipanti al G7 hanno riconosciuto come lo sviluppo dell’intelligenza artificiale abbia largamente superato ogni previsione e come gli organi di controllo si trovino al momento impreparati a tenere questi applicativi sotto controllo e mantenerli nell’ambito di valori democratici condivisi.

 

Passando dal Giappone all’Europa, la commissione europea ha proposto tre iniziative legali, fra loro interconnesse, per essere certi che lo sviluppo dell’intelligenza artificiale avvenga in un contesto affidabile.

 

Ecco le tre iniziative:

  • un quadro legale europeo per essere certi che l’intelligenza artificiale rispetti i diritti fondamentali e tenga sotto controllo i rischi per la sicurezza ed incolumità dei cittadini,
  • un quadro di riferimento per una possibile responsabilità civile, inquadrata in una era digitale,
  • una revisione della legislazione di sicurezza di settore, come ad esempio il regolamento sui macchinari, la direttiva generale sulla sicurezza dei prodotti e via dicendo.

 

Lo sviluppo di questi tre documenti dovrebbe consentire all’Europa di mettersi in una posizione di preminenza a livello mondiale e dovrebbe aiutare gli sviluppatori e gli utilizzatori di applicativi di intelligenza artificiale a sviluppare prodotti, che possano essere classificati a quattro livelli di rischio: rischio inaccettabile, alto rischio, rischio limitato e rischio minimo.

 

Passando l’Atlantico, la amministrazione Biden ha deciso di sottoporre a commenti pubblici delle possibili misure di responsabilizzazione per gli sviluppatori di applicativi di intelligenza artificiale, soprattutto per quanto riguarda il problema della sicurezza nazionale e dell’educazione.

 

Il programma ChatGPT, che recentemente ha attirato l’interesse nazionale per la sua capacità di offrire risposte scritti ad una varia tipologia di quesiti, ha attratto l’attenzione dei legislatori americani, anche perché rappresenta un’applicazione che cresce in maniera esponenziale, con più di 100 milioni di utenti attivi al mese.

 

Organismi specializzati, come il Dipartimento del commercio, hanno offerto indicazioni alla Casa Bianca sulle modalità con cui può essere sviluppata una normativa, in grado di tenere sotto controllo questi applicativi. L’obiettivo di queste normative dovrebbe essere quello che gli applicativi di intelligenza artificiale siano legali, efficaci, etici, sicuri e, più in generale affidabili.

 

Le autorità federali americani sono convinte che i sistemi di intelligenza artificiale, sviluppati in modo appropriato, possano dare un contributo elevato allo sviluppo della nazione, ma sono parimenti convinti che la mancanza di regole possa portare a risultati potenzialmente assai pericolosi.

 

Ad esempio, il già menzionato applicativo ha dato ottimi risultati, con rapide ed accurate risposte, in alcuni casi, mentre ha causato un turbamento non indifferente ad alcuni soggetti, per risposte non accurate, che sono state prese come vangelo dagli utenti dell’applicativo.

 

Un gruppo tecnico ed etico, chiamato Centro per l’intelligenza artificiale ed una politica digitale, ha chiesto alla commissione del commercio degli Stati Uniti di impedire la distribuzione di nuove edizioni della applicazione GPT-4, sino a che non saranno stati effettuate verifiche di correttezza, protezione dei dati personali e sicurezza del pubblico.

 

 

Adalberto Biasiotti






I contenuti presenti sul sito PuntoSicuro non possono essere utilizzati al fine di addestrare sistemi di intelligenza artificiale.

Per visualizzare questo banner informativo è necessario accettare i cookie della categoria 'Marketing'

Pubblica un commento

Ad oggi, nessun commento è ancora stato inserito.

Pubblica un commento

Banca Dati di PuntoSicuro


Altri articoli sullo stesso argomento:


Forum di PuntoSicuro Entra

FORUM di PuntoSicuro

Quesiti o discussioni? Proponili nel FORUM!