È possibile individuare i video fasulli, generati da applicativi di intelligenza artificiale?
Negli ultimi anni, gli applicativi di intelligenza artificiale generativa hanno fatto grossi progressi e permettono di generare delle immagini sintetiche oltremodo realistiche. Le conseguenze negative di questa situazione sono certamente note a tutti i lettori.
Gli esperti hanno messo a punto un certo numero di tecniche per individuare le immagini create artificialmente, ma queste tecniche non sono idonee per individuare invece filmati, anch’essi prodotti artificialmente.
Un recente studio di ricercatori dell’Università di Drexel, in Pennsylvania, ha cercato di individuare strumenti, atti a mettere in evidenza i generatori sintetici di immagini video, che introducono delle tracce completamente diverse da quelle rilasciate dai generatori di immagine. Inoltre, occorre tener presente che spesso le immagini video vengono sottoposte a processi di compressione, tra cui l’algoritmo H. 264 è uno dei più diffusi.
Approfondimento della normativa ISO 11064 e altre norme per la progettazione delle sale di controllo, a cura di di Adalberto Biasiotti. |
I più diffusi applicativi di intelligenza artificiale generativa, che producono filmati, sono Stable Video Diffusion, VideoCrafter e, tra i più recenti, Sora.
È del tutto evidente che una crescente diffusione di questi applicativi può potenziare in modo drammatico la disinformazione, che già è causata da immagini sintetiche.
Ecco perché gli studiosi dell’università hanno cominciato ad analizzare i filmati prodotti da questi applicativi, per individuare delle tracce identificative, che non vengono normalmente rilevate dagli applicativi che analizzano le immagini fisse.
I ricercatori hanno dimostrato che i generatori di video sintetici lasciano delle tracce criminologiche significativamente diverse, rispetto ad altri applicativi, e quindi gli strumenti di indagine possono essere applicati sia in campo civile, sia in campo penale.
Le difficoltà connesse all’utilizzo di applicativi contraffatti, compressi con l’algoritmo H. 264, possono essere superate da un attento studio, da parte di applicativi specializzati.
I ricercatori hanno utilizzato i video prodotti da diversi applicativi generativi e li hanno studiati attentamente, nel contesto di una serie di analisi sia delle singole immagini, sia della sequenza delle immagini.
È stato così possibile mettere in evidenza come una stessa immagine, prodotta da diversi applicativi artificiali, poteva essere individuata, non solo per il fatto che era contraffatta, ma anche individuando l’algoritmo utilizzato per ricrearla.
In conclusione, i ricercatori hanno messo in evidenza quali siano le differenze fra gli applicativi in grado di individuare immagini fisse contraffatte, rispetto a quelli in grado di individuare video contraffatti. I ricercatori hanno anche dimostrato come sia possibile individuare le tracce di video fasulli, utilizzando uno specifico processo di apprendimento, che porta a risultati accettabili sul piano giudiziario.
Ancora una volta, complimenti vivissimi ai ricercatori che mettono a disposizione preziosi strumenti per contrastare la sempre crescente diffusione di informazioni fasulle, purtroppo dotate di alta credibilità.
Adalberto Biasiotti