Per utilizzare questa funzionalità di condivisione sui social network è necessario accettare i cookie della categoria 'Marketing'.
Intelligenza artificiale e comunicazione scientifica
Nel 1987, quando il più vecchio di noi già lavorava in una redazione scientifica, un professore di un’università americana ci chiese di rileggere un’intervista che gli avevamo fatto. Mandatemela pure per mail, ci aveva detto al telefono (fisso). “Mi ha detto di mandargli una… mail”. “E che cos’è?”, mi aveva chiesto il direttore. “Non ne ho la minima idea”. In Italia le email non esistevano ancora, ci giocavano gli informatici e si scrivevano ancora in codice.
Ce la siamo cavata con un fax. Sempre in quegli anni, le collaborazioni con il Corriere della sera si scrivevano al computer e poi si dettavano via telefono ai “dimafonisti”, il cui lavoro consisteva proprio nel trascrivere sul computer. Per motivi sindacali i dimafonisti hanno resistito ben dopo l’entrata in gioco della mail. C’erano già anche i cellulari, ma si continuava a dettare il pezzo al dimafonista, manco fossimo Tiziano Terzani dal Vietnam. Una volta la linea telefonica era molto disturbata. Allora il dimafonista disse: “Fai una cosa, mandami per mail il file dell’articolo, che lo ribatto con calma”.
La tecnologia non è sempre la benvenuta, e nemmeno questa volta lo sarà. Talvolta però anche per motivi fondati.
In effetti l’ intelligenza artificiale, con i Large language model come ChatGpt di OpenAi o Gemini e Claude rispettivamente di Google e Anthropic, sta rapidamente trasformando il giornalismo e la comunicazione della scienza, portando con sé opportunità innegabili e sfide altrettanto rilevanti. Nelle riviste di primo livello, come Nature e Science, per intenderci, ci sono già stati casi di articoli in cui fra gli autori figurava anche l’Ia. Poi le principali riviste scientifiche si sono date la regola di non accettare l’Ia fra gli autori per i problemi che poteva generare sia di tipo etico sia di tipo economico (i diritti, per esempio). Ma è indubbio che già oggi molti di questi strumenti, se opportunamente impiegati, possono aiutare nell’organizzazione dei dati della ricerca, o anche a scrivere un paper quasi meglio di un umano. Le aziende editoriali stanno anche pensando di usare l’Ia per fare il primo passaggio della revisione dei pari (peer review) agli articoli sottoposti alle redazioni delle riviste scientifiche: per esempio rifiutando gli articoli che non rispettano i criteri redazionali dettati dalla redazione, cosa che avviene nel 45% dei casi. Che senso ha far fare questo screening a un redattore umano? Lo può fare la macchina.
L’intelligenza artificiale è entrata anche nella comunicazione della scienza di carattere divulgativo, di cui noi ci occupiamo. Un aspetto che emerge dall’uso dell’ Intelligenza artificiale nella comunicazione scientifica è infatti la sua capacità di semplificare e rendere più accessibili contenuti tecnici complessi. Come sottolinea Mike Schäfer, docente di Scienza della comunicazione all’Università di Zurigo, sul Journal of Science Communication, “l’Ia può democratizzare il dialogo tra scienza e società, permettendo una più ampia partecipazione del pubblico alla comprensione della scienza”.
Il recente rapporto Report sul giornalismo digitale a cura dell’Ordine nazionale dei giornalisti cita tra gli strumenti già entrati nell’uso quotidiano delle redazioni le Intelligenze artificiali che facilitano il lavoro di traduzione, riassunto e semplificazione del linguaggio scientifico. Facendo le domande giuste, infatti, si possono fare i post dei social con risultati accettabili. È certo importante che questa attività venga sempre controllata da un umano, anche per togliere certe ripetizioni e sciatterie che una Ia “brada” lascia nel testo. Tipo iniziare con “In conclusione” l’ultimo paragrafo di un articolo.
La speranza – richiamata anche nel report pubblicato dall’Ordine dei giornalisti – è che l’intelligenza artificiale possa liberare tempo ai giornalisti, consentendo loro di dedicarsi ad attività a maggiore valore aggiunto, come inchieste e interviste approfondite, analisi critiche e la contestualizzazione di dati scientifici. L’Ia è utile per analizzare enormi dataset, per esempio relativi ai cambiamenti climatici, raccogliendo dati su temperature, emissioni di gas serra e modelli atmosferici, per poi lasciare al giornalista il compito di interpretare e comunicare le implicazioni di questi dati in un articolo approfondito. Questo aspetto rappresenta una delle maggiori potenzialità dell’Ia, essendo questa in grado di analizzare grandi quantità di dati in modo efficiente, identificando connessioni e tendenze che sfuggirebbero a un’analisi manuale. Lo stesso riguarda la lettura e il sunto di lunghi e impegnativi report scientifici, su cui raramente il comunicatore può soffermarsi in modo adeguato.
Ci sono ovviamente anche dei rischi. Questa facilità di produrre una grande quantità di testi rischia di rendere impossibile ai giornalisti e comunicatori l’attività di controllo. Rotto questo argine la disinformazione non ne avrebbe altri. In un’epoca in cui la fiducia nella scienza è già fragile, la diffusione di informazioni false o distorte potrebbe avere effetti devastanti. Sappiamo per esempio che l’Ia può commettere errori significativi se addestrata su dati non aggiornati: cosa accadrebbe a un giornalista che volesse valutare correttamente la rilevanza di un articolo sulle nuove varianti del Covid-19 tramite una Ia addestrata con conoscenze obsolete?
La rapidità con cui l’Ia può generare contenuti sintetici rende particolarmente problematico il fenomeno del “wrongness at scale”, in cui errori commessi da macchine si diffondono a velocità impressionanti, come avverte Schäfer. Per esempio, durante la pandemia, le Ia utilizzate per riassumere articoli scientifici hanno prodotto contenuti fuorvianti sulle misure di prevenzione, perché si sono basate su studi non ancora verificati, contribuendo a creare confusione nel pubblico. L’ intelligenza artificiale è anche capace di generare contenuti sintetici, come video, immagini e audio falsi, rendendo sempre più difficile per il pubblico distinguere tra ciò che è reale e ciò che non lo è. La disinformazione prodotta dall’Ia può sembrare altrettanto convincente di quella creata manualmente, ma la sua diffusione è potenzialmente molto più rapida e capillare.
![]() | Corso online sui rischi e sulle responsabilità nel trattamento di dati e informazioni tramite l'utilizzo dei dispositivi informatici. |
La sfida, dunque, è anche etica: garantire che i contenuti creati o facilitati dall’Ia siano sempre accompagnati da un’adeguata trasparenza. Come sottolineato in uno studio pubblicato su Plos One (“Quality of science journalism in the age of artificial intelligence”), “la trasparenza è cruciale: il pubblico deve sapere quando un contenuto è stato generato con l’ausilio dell’Ia, e quali fonti sono state utilizzate per addestrare l’algoritmo”. Senza questa trasparenza, l’uso dell’Ia potrebbe portare a una perdita di fiducia nei confronti dei media, in un momento in cui il giornalismo ha un ruolo cruciale nel contrastare la disinformazione scientifica. Ma la buona notizia è che questi sistemi automatici opportunamente addestrati possono anche aiutarci a scovare le notizie e le immagini fake, quindi la fonte del problema può anche contribuire a tenerlo sotto controllo e aiutarci, per esempio, nel debunking.
Un altro tema rilevante è l’impatto che l’Ia può avere sul lavoro dei giornalisti scientifici. L’automazione potrebbe portare a una riduzione dei posti di lavoro, soprattutto nelle redazioni più piccole e con risorse limitate.
Allo stesso tempo, vi è il rischio di una eccessiva dipendenza dai big player tecnologici, che potrebbero controllare l’accesso agli algoritmi e ai dati necessari per il funzionamento dell’Ia, minando così il pluralismo dell’informazione. Questo è un problema evidenziato anche da Mico Tatalovic, già news editor di Nature e New Scientist, in un suo editoriale pubblicato sul Journal of Science Communication, dove sottolinea come il controllo degli strumenti di Ia da parte di poche grandi aziende possa ridurre l’indipendenza e la diversità delle voci nel giornalismo scientifico.
Per affrontare queste sfide, la comunità giornalistica e scientifica deve adottare alcune misure preventive. La formazione continua è uno degli aspetti più importanti: è essenziale che i giornalisti siano formati per utilizzare l’ intelligenza artificiale in modo critico e consapevole, verificando sempre le fonti e valutando l’accuratezza delle informazioni generate. Solo con una preparazione adeguata la comunicazione scientifica potrà sfruttare le potenzialità dell’Ia senza compromettere la qualità del lavoro. Fondamentale sarà il concetto di human in the loop (Hitl): l’Ia può gestire gran parte del lavoro ripetitivo o complesso, ma l’essere umano rimane il supervisore finale, responsabile della qualità e dell’accuratezza del risultato.
Luca Carra, Sergio Cima
Fonte: ARPAE - Ecoscienza - Numero 4 del 2024
I contenuti presenti sul sito PuntoSicuro non possono essere utilizzati al fine di addestrare sistemi di intelligenza artificiale.
Per visualizzare questo banner informativo è necessario accettare i cookie della categoria 'Marketing'
