Per utilizzare questa funzionalità di condivisione sui social network è necessario accettare i cookie della categoria 'Marketing'.
Un aggiornamento sulle truffe perpetrate grazie all’intelligenza artificiale
I truffatori che utilizzano applicativi di intelligenza artificiale stanno utilizzando questi strumenti in maniera sempre più raffinata, rendendo sempre più difficile l’individuazione della truffa. Ecco alcuni punti fondamentali da tenere sempre presente:
- chiunque può essere ingannato,
- le banali truffe del passato vengono gradualmente sostituite da truffe assai più sofisticate,
- l’intelligenza artificiale viene utilizzata dai criminali per ingannare vittime innocenti, in maniera sempre più efficiente ed efficace
- in alcuni casi, ci troviamo davanti a vecchi sistemi di truffe che, grazie all’intelligenza artificiale, sono diventati un poco più raffinati; in altri casi, la architettura alla base dello schema truffaldino è la stessa, ma lo schema diventa più efficiente ed efficace.
Secondo le informazioni raccolte da varie organizzazioni e siti Web, che tengono sotto controllo il crimine informatico, ecco quali sono le principali truffe perpetrate tramite intelligenza artificiale:
- truffe perpetrate grazie alla imitazione della voce,
- truffe perpetrate grazie alla creazione di immagini digitali,
- phishing sostenuto da applicativi specifici,
- chatbot fasulli o bot su social media,
- truffe legate alla offerta di impiego.
In buona sostanza, la lezione che si può trarre da questa panoramica è legata al fatto che ormai non è più possibile che un utente possa credere a ciò che vede, ode o legge, almeno in questi giorni.
Ecco la ragione per cui ogni potenziale vittima, vale a dire ciascuno di noi, deve prendere cognizione di un messaggio e ragionarvi sopra per qualche tempo, prima di dare una risposta o comunque reagire al messaggio ricevuto.
In particolare, particolarmente temibili sono le truffe basate sulla duplicazione della voce. Una delle truffe più frequenti è quella di creare un messaggio vocale, legato ad una emergenza familiare, che duplica alla perfezione la voce di un familiare. Il truffatore va in rete, trova la voce di qualcheduno noto al suo bersaglio, ne cattura la voce con applicativi di intelligenza artificiale e successivamente duplica un messaggio di emergenza.
In genere, il messaggio vocale che viene utilizzato per addestrare il sistema di intelligenza artificiale viene prelevato da un video su YouTube o altri messaggi in linea.
Quando il messaggio è stato preparato, il truffatore chiama, ad esempio, un genitore, che ode la voce di suo figlio, che gli chiede aiuto. Diventa difficile per un genitore, davanti a questo stress, fermarsi a valutare la chiamata ed ipotizzare una truffa.
Un altro messaggio fraudolento può essere realizzato duplicando la voce di un dirigente aziendale, che chiede ad un proprio dipendente di elaborare un documento, nel quale possono essere presenti dati riservati aziendali. Questo documento deve essere immediatamente spedito all’indirizzo che indica il dirigente, per soddisfare un rapporto commerciale con un potenziale cliente. Il malvivente pertanto si impadronisce di preziosi dati riservati aziendali.
Ne conoscete altri?
Adalberto Biasiotti
I contenuti presenti sul sito PuntoSicuro non possono essere utilizzati al fine di addestrare sistemi di intelligenza artificiale.
Per visualizzare questo banner informativo è necessario accettare i cookie della categoria 'Marketing'
