Più di altri delicati aspetti come, ad esempio, l’impatto sul mondo del lavoro, la questione della disinformazione legata all’intelligenza artificiale appare in questo momento la vera emergenza da affrontare.
In Slovacchia, a soli due giorni dalle elezioni, una registrazione audio che coinvolgeva il candidato dell’opposizione liberale Michal Šimečka in un presunto complotto per l’acquisto di voti ha scatenato un’ondata di disinformazione sui social media. Nella registrazione, che è diventata rapidamente virale, si ascoltava Šimečka mentre discuteva con un giornalista su metodi illeciti per manipolare il risultato elettorale. Tuttavia, è stato presto rivelato che la registrazione era in realtà un falso. Secondo esperti di fact-checking, l’audio era stato generato da sofisticate tecniche di intelligenza artificiale, come evidenziato dalla dizione innaturale e da pause atipiche nel discorso.
Il mondo della disinformazione online, un fattore critico nelle elezioni per anni (come non ricordare le vicende ormai storiche di Cambridge Analytica nella manipolazione dei social durante le presidenziali USA del2016?), sta vivendo una trasformazione radicale a causa dei progressi fulminei nell’ambito dell’intelligenza artificiale.
Come evidenzia il Financial Times, un fronte preoccupante in questo scenario è l’ascesa dei deepfake realistici, che stanno emergendo come una nuova minaccia nel campo della disinformazione. Queste tecniche avanzate sono già state osservate nei conflitti Israele-Hamas e Russia-Ucraina, dove hanno creato ulteriore confusione e disinformazione.
Il pericolo si estende ora ai processi elettorali, in un periodo in cui la fiducia pubblica nei governi, nelle istituzioni e nella democrazia sta diminuendo. L’illiberalismo diffuso e la polarizzazione politica intensificano ulteriormente il problema, rendendo i deepfake uno strumento potenzialmente devastante per influenzare l’opinione pubblica e alterare l’esito delle elezioni. La sfida è ora per i governi, le istituzioni e i cittadini di identificare e contrastare efficacemente questa forma evoluta di disinformazione digitale.
Ne avevamo peraltro già scritto a dicembre in relazione alle elezioni in Bangladesh, paese dell’Asia meridionale con una popolazione di 170 milioni di abitanti coinvolto in una competizione elettorale tra la prima ministra in carica, Sheikh Hasina, e l’opposizione rappresentata dal partito nazionalista del Bangladesh.
Gli organi di stampa e gli influencer favorevoli al governo hanno sfruttato gli strumenti di intelligenza artificiale forniti da start-up specializzate per favorire Sheikh Hasina (il 7 gennaio 2024 le elezioni si sono concluse con la vittoria della Hasina). Sotto accusa sono due video: nel primo, una artefatta clip di notizie, un conduttore generato dall’IA critica aspramente gli Stati Uniti, amplificando così la posizione critica già espressa dal governo; il secondo video, successivamente rimosso, ritraeva un deepfake del leader dell’opposizione in un contesto ambiguo riguardo al suo presunto sostegno agli abitanti di Gaza, un argomento delicato in un paese a maggioranza musulmana.
Il World Economic Forum, nel suo “The Global Risk Report 2024” appena pubblicato e di cui scriviamo dettagliatamente in altro articolo, individua la disinformazione come rischio principale tra quelli analizzati: “La disinformazione è il nuovo leader della top 10 delle classifiche quest’anno. Non richiedendo più competenze di nicchia, le interfacce facili da usare per i modelli di intelligenza artificiale (AI) su larga scala hanno già consentito un’esplosione di informazioni falsificate e dei cosiddetti contenuti “sintetici”, dalla sofisticata clonazione vocale ai siti Web contraffatti. Per combattere i rischi crescenti, i governi stanno iniziando a varare normative nuove e in evoluzione per prendere di mira sia gli host che i creatori di disinformazione online e di contenuti illegali. […]
[…] Nei prossimi due anni, quasi tre miliardi di persone si recheranno alle urne elettorali in diverse economie, tra cui Stati Uniti, India, Regno Unito, Messico e Indonesia.
Tali processi potrebbero destabilizzare seriamente la legittimità reale e percepita dei governi neoeletti, rischiando disordini politici, violenza e terrorismo, nonché un’erosione a lungo termine dei processi democratici.”
Sono molteplici le azioni regolamentali intraprese dai governi di tutto il mondo. Come ricorda il report del WEF, ad esempio, i requisiti in Cina di filigranare i contenuti generati dall’intelligenza artificiale possono aiutare a identificare informazioni false, inclusa la disinformazione involontaria attraverso contenuti allucinati dall’intelligenza artificiale.
In generale, tuttavia, è improbabile che la rapidità e l’efficacia della regolamentazione corrispondano al ritmo dello sviluppo di queste tecnologie.
In questo senso, da questo nostro angolo di osservazione, riteniamo quanto mai centrale la figura del giornalista in carne ed ossa, che, anche con l’aiuto degli strumenti di intelligenza artificiale, possa contribuire a smascherare queste nuove tecniche di disinformazione ed a contribuire ad un ecosistema informativo “sanificato”.