Per utilizzare questa funzionalità di condivisione sui social network è necessario accettare i cookie della categoria 'Marketing'
Crea PDF

Nuovi usi della AI generativa

Nuovi usi della AI generativa
Adalberto Biasiotti

Autore: Adalberto Biasiotti

Categoria: Privacy

25/07/2023

Come la AI può esser usata per influenzare gli elettori, forse meglio di un comizio elettorale. Lo scenario illustrato è americano, ma certamente è applicabile anche tra noi. Ringrazio il collega Nathan Sanders per questo prezioso contributo.

All'inizio di maggio 2023, il Comitato Nazionale Repubblicano ha pubblicato un video che afferma essere stato "costruito interamente con immagini AI". Il contenuto dell'annuncio non è particolarmente nuovo – una visione distopica dell'America sotto un secondo mandato con il presidente Joe Biden – ma spicca l'enfasi deliberata sulla tecnologia utilizzata per crearlo.

 

Le applicazioni dell'intelligenza artificiale alla pubblicità politica non sono sfuggite agli attivisti, che stanno già "testando sotto pressione" i possibili usi della tecnologia. Nella campagna elettorale presidenziale del 2024, siamo certi sia della comparsa di e-mail di raccolta fondi, personalizzate e generate dall'intelligenza artificiale, sia di messaggi di testo da chatbot che spingono i cittadini a votare.

 

I futuri candidati potrebbero utilizzare chatbot formati su dati, che rappresentano le loro opinioni e personalità, per personalizzare il momento del contatto con le persone.

 

Le precedenti rivoluzioni tecnologiche - ferrovia, radio, televisione e World Wide Web - hanno trasformato il modo in cui i candidati alle elezioni si connettono ai loro elettori e dovremmo aspettarci lo stesso dall'IA generativa. Questa non è fantascienza: l'era dei chatbot di intelligenza artificiale che fungono da avatar per singole persone reali è già iniziata, come ha chiarito il giornalista Casey Newton in un servizio del 2016 su una donna, che ha utilizzato migliaia di messaggi di testo per creare una replica di chatbot del suo migliore amico, dopo la sua morte.


Pubblicità
La progettazione delle sale di controllo: la serie ISO 11064 ed altre norme - eBook in pdf
Approfondimento della normativa ISO 11064 e altre norme per la progettazione delle sale di controllo, a cura di di Adalberto Biasiotti.

 

Il segreto di queste applicazioni sta nell'interazione.

 

Un candidato potrebbe utilizzare strumenti abilitati da modelli linguistici di grandi dimensioni, o LLM (la tecnologia alla base di app come ChatGPT e DALL-E, che crea arte), per eseguire micro-sondaggi o testare messaggi, che sollecitano prospettive ed offrono le testimonianze di un politico. I candidati potrebbero potenzialmente raggiungere qualsiasi elettore che possieda uno smartphone o un computer, e non solo quelli con disponibilità di tempo libero per partecipare ad una manifestazione elettorale.

 

Sul lato positivo, e più profondamente, gli LLM potrebbero aiutare le persone ad individuare e approfondire le proprie ideologie politiche. La ricerca ha dimostrato che molti elettori arrivano a consolidare le loro posizioni politiche in modo riflessivo, per un senso di appartenenza di parte.  Può essere infatti difficile avere scambi di idee su temi politici con un interlocutore umano informato e imparziale. Nella comunicazione politica, è ovvio che la risorsa più preziosa in una campagna sia il tempo. Le persone sono impegnate e distratte.

 

Se tu fossi un propagandista politico, cosa preferiresti fare:

  • riprodurre un breve video sulla TV di un elettore, mentre sta piegando il bucato nella stanza accanto o
  • avviare un approfondito dibattito con un elettore, sulle questioni chiave affrontate dal tuo candidato?

 

Un membro dello staff che bussa alle porte potrebbe aver bisogno di sondare 50 case in due ore per trovare un elettore disposto a conversare. OpenAI addebita pochi centesimi per elaborare circa 800 parole con il suo ultimo modello GPT-4 e tale costo potrebbe diminuire drasticamente, non appena saranno disponibili IA competitive.

In effetti, la natura fondamentalmente ossequiosa dell'attuale generazione di grandi modelli linguistici li porta ad agire come demagoghi. È noto che gli attuali LLM hanno allucinazioni - o vanno completamente fuori copione - e producono risposte che non hanno basi nella realtà. Questi modelli non provano alcun tipo di emozioni, ma alcune ricerche suggeriscono che hanno una sofisticata capacità di valutare l'emozione e il tono dei loro utenti umani. Sebbene non siano stati addestrati per questo scopo, ChatGPT e il suo successore, GPT-4, potrebbero già essere abbastanza bravi nel valutare alcuni dei tratti dei loro utenti, ad esempio la probabilità che l'autore di un messaggio di testo sia depresso. In combinazione con le loro capacità persuasive, ciò significa che potrebbero imparare a manipolare abilmente le emozioni dei loro utenti umani.

 

Questo concetto non è del tutto teorico. Un numero crescente di test dimostra che l'interazione con l'intelligenza artificiale ha un effetto persuasivo sugli utenti umani. Uno studio pubblicato a febbraio 2023 ha spinto i partecipanti a scrivere insieme una dichiarazione sui vantaggi delle piattaforme di social media per la società, usando un chatbot AI configurato per avere opinioni diverse sull'argomento. Quando i ricercatori hanno intervistato i partecipanti dopo l'esperienza di co-scrittura, coloro che hanno interagito con una chatbot, che li ha convinti che i social media sono buoni o cattivi, avevano molte più probabilità di esprimere la stessa opinione rispetto a un gruppo di controllo, che non ha interagito con un "modello linguistico di opinione”.

 

Per il momento, la maggior parte degli americani afferma di essere riluttante a fidarsi dell'intelligenza artificiale in questioni delicate, come l'assistenza sanitaria. Lo stesso vale probabilmente per la politica.

 

Se un vicino, che si offre volontario con una campagna, ti convince a votare in un modo particolare su un'iniziativa di voto locale, potresti sentirti bene con quell'interazione. Se un chatbot fa’ la stessa cosa, ti sentiresti allo stesso modo?

 

Per aiutare gli elettori a tracciare la propria rotta in un mondo di IA persuasiva, dovremmo esigere trasparenza dai nostri candidati. Le campagne dovrebbero rivelare chiaramente quando un agente di testo, che interagisce con un potenziale elettore, attraverso il tradizionale robotexting o l'uso dei più recenti chatbot di intelligenza artificiale, è umano o automatizzato.

 

Abbiamo anche bisogno di protezioni più forti, a livello nazionale, sulla privacy dei dati, nonché la possibilità di rinunciare alla pubblicità mirata, per proteggerci dai potenziali eccessi di questo tipo di marketing. Nessuno dovrebbe essere forzoso destinatario di pubblicità politica, generata o meno da LLM, sulla base delle proprie ricerche su Internet riguardanti questioni private, come questioni mediche.

 

A febbraio 2023, il Parlamento europeo ha votato per limitare il targeting degli annunci politici alle sole informazioni di base, come la lingua e la posizione generale, entro due mesi dalle elezioni. Ciò è in netto contrasto con gli Stati Uniti, che per anni non hanno promulgato le normative federali sulla privacy dei dati. Sebbene la rivelazione, nel 2018, dello scandalo Cambridge Analytica abbia portato a miliardi di dollari di multe e accordi contro Facebook, finora non ha portato a nessuna azione legislativa sostanziale.

 

Adalberto Biasiotti




Per visualizzare questo banner informativo è necessario accettare i cookie della categoria 'Marketing'

Pubblica un commento

Ad oggi, nessun commento è ancora stato inserito.

Pubblica un commento

Banca Dati di PuntoSicuro


Altri articoli sullo stesso argomento:


Forum di PuntoSicuro Entra

FORUM di PuntoSicuro

Quesiti o discussioni? Proponili nel FORUM!